Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Méthode scientifiqueLa méthode scientifique désigne l'ensemble des canons guidant ou devant guider le processus de production des connaissances scientifiques, qu'il s'agisse d'observations, d'expériences, de raisonnements, ou de calculs théoriques. Très souvent, le terme de « méthode » engage l'idée implicite de son unicité, tant auprès du grand public que de certains chercheurs, qui de surcroît la confondent parfois avec la seule méthode hypothético-déductive.
Entropie conjointevignette|Entropie conjointe. En théorie de l'information, l'entropie conjointe est une mesure d'entropie utilisée en théorie de l'information, qui mesure la quantité d'information contenue dans un système de deux variables aléatoires (ou plus de deux). Comme les autres entropies, l'entropie conjointe est mesurée en bits ou en nats, selon la base du logarithme utilisée. Si chaque paire d'états possibles des variables aléatoires ont une probabilité alors l'entropie conjointe de et est définie par : où est la fonction logarithme en base 2.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Population mondialeLa population mondiale est le nombre d'êtres humains vivant sur Terre à un instant donné. L’ONU l'estime à le . Elle avait été estimée à pour 2000, entre 1,55 et pour 1900, entre 0,813 et pour 1800 et entre 600 et d'habitants pour 1700. Cette augmentation de la population avec le temps tend cependant à ralentir avec une baisse mondiale de l'indice de fécondité, plus ou moins importante selon les pays. Le taux annuel de la croissance démographique de la population mondiale est tombé de 2,1 % au début des années 1960 à moins de 1 % en 2020.
MéthodologieLa méthodologie est l'étude de l'ensemble des méthodes scientifiques. Elle peut être considérée comme la science de la méthode, ou « méthode des méthodes » (comme il y a une métalinguistique ou linguistique des linguistiques et une métamathématique ou mathématique des mathématiques). Alors, la méthodologie est une classe de méthodes, une sorte de boîte à outils où chaque outil est une méthode de la même catégorie, comme il y a une méthodologie analytique du déterminisme causal et une méthodologie systémique finaliste de la téléologie.
Human population planningHuman population planning is the practice of managing the growth rate of a human population. The practice, traditionally referred to as population control, had historically been implemented mainly with the goal of increasing population growth, though from the 1950s to the 1980s, concerns about overpopulation and its effects on poverty, the environment and political stability led to efforts to reduce population growth rates in many countries.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Surpopulationthumb|upright=1.5|Taux de croissance de la population, 2018source : CIA thumb|200px|La densité de population est facteur de promiscuité (ici à Taipei) pouvant augmenter le risque épidémique et pandémique thumb|200px|L'empreinte écologique de l'urbanisation est l'un des facteurs en jeu dans les évaluations de la surpopulation (ici : New York, Manhattan) La surpopulation est un état démographique caractérisé par le fait que le nombre d'individus d'une espèce vivante excède la capacité de charge de son habitat, c'est-à-dire sa capacité à : fournir les ressources nécessaires pour assurer la pérennité de cette espèce ; réparer les agressions (pollutions, perturbation des régulations écologiques naturelles) infligées par cette espèce à son environnement.
Entropie conditionnelleEn théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire , lorsque l'on connait exactement une variable aléatoire . On note l'entropie conditionnelle de sachant . On dit aussi parfois entropie de conditionnée par . Comme les autres entropies, elle se mesure généralement en bits. On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe.
Croissance démographiqueLa croissance démographique ou accroissement démographique ou variation totale de population est la différence entre l’effectif d’une population à la fin et au début d’une période donnée (généralement un an). Elle peut être exprimée par le taux d'évolution du nombre d’individus au sein d’une population par unité de temps et pour aussi n’importe quelle espèce (animale ou végétale, par exemple). Elle se décompose en deux parties distinctes : l’accroissement naturel ; le solde migratoire.
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
Entropy estimationIn various science/engineering applications, such as independent component analysis, , genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations. The simplest and most common approach uses histogram-based estimation, but other approaches have been developed and used, each with its own benefits and drawbacks.
RéfutabilitéLa réfutabilité (également désignée par le recours à l'anglicisme falsifiabilité) a été introduite par Karl Popper et est considérée comme un concept important de l'épistémologie, permettant d'établir une démarcation entre les théories scientifiques et celles qui ne le sont pas. Une affirmation, une hypothèse, est dite réfutable si et seulement si elle peut être logiquement contredite par un test empirique ou, plus précisément, si et seulement si un énoncé d'observation (vrai ou faux) ayant une interprétation empirique (respectant ou non les lois actuelles et à venir) contredit logiquement la théorie.
Analogie de MaxwellL'analogie d'impédance ou analogie de Maxwell est une méthode de représentation d'un système mécanique par un système électrique analogue. L'avantage de celle-ci est qu'il existe un grand nombre de théories et de techniques d'analyse concernant les systèmes électriques complexes, en particulier dans le domaine des filtres. En convertissant vers une représentation électrique, ces outils du domaine électrique peuvent être directement appliqués à un système mécanique sans modification.
Mobility analogyThe mobility analogy, also called admittance analogy or Firestone analogy, is a method of representing a mechanical system by an analogous electrical system. The advantage of doing this is that there is a large body of theory and analysis techniques concerning complex electrical systems, especially in the field of filters. By converting to an electrical representation, these tools in the electrical domain can be directly applied to a mechanical system without modification.
Analogie électro-mécaniqueL'analogie électro-mécanique est une apparence de similitude entre les grandeurs électriques et mécaniques induite par l'observation des oscillateurs en électricité et en mécanique et par la grande ressemblance entre les équations décrivant l'évolution de ces deux types de systèmes. Elle incite à généraliser les observations faites sur des systèmes simples à l'ensemble des oscillateurs.
Estimates of historical world populationThis article lists current estimates of the world population in history. In summary, estimates for the progression of world population since the Late Middle Ages are in the following ranges: Estimates for pre-modern times are necessarily fraught with great uncertainties, and few of the published estimates have confidence intervals; in the absence of a straightforward means to assess the error of such estimates, a rough idea of expert consensus can be gained by comparing the values given in independent publications.
Analogie électro-hydrauliquevignette|Analogie entre un circuit hydraulique (à gauche) et un circuit électronique (à droite). L'analogie électro-hydraulique est une apparence de similitude entre les grandeurs électriques et hydraulique. Comme le courant électrique est invisible et que les processus en jeu dans l'électronique sont souvent difficiles à démontrer, les différents composants électroniques peuvent être représentés par des équivalents hydrauliques.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.