Processus de Poissonvignette|Schéma expliquant le processus de Poisson Un processus de Poisson, nommé d'après le mathématicien français Siméon Denis Poisson et la loi du même nom, est un processus de comptage classique dont l'équivalent discret est la somme d'un processus de Bernoulli. C'est le plus simple et le plus utilisé des processus modélisant une . C'est un processus de Markov, et même le plus simple des processus de naissance et de mort (ici un processus de naissance pur).
Processus ponctuelEn probabilité et statistique, un processus ponctuel est un type particulier de processus stochastique pour lequel une réalisation est un ensemble de points isolés du temps et/ou de l'espace. Par exemple, la position des arbres dans une forêt peut être modélisée comme la réalisation d'un processus ponctuel. Les processus ponctuels sont des objets très étudiés en probabilité et en statistique pour représenter et analyser des données spatialisées qui interviennent dans une multitude de domaines telle que l'écologie, l'astronomie, l'épidémiologie, la géographie, la sismologie, les télécommunications, la science des matériaux et beaucoup d'autres.
Processus de CoxUn processus de Cox (nommé d'après le statisticien britannique David Cox), connu aussi sous le nom de double processus stochastique de Poisson, est un processus stochastique généralisant le processus de Poisson dans lequel la moyenne n'est pas constante mais varie dans l'espace ou le temps. Dans le cadre du processus de Cox, l'intensité dépendant du temps est un processus stochastique séparé du processus de Poisson. Un exemple serait un potentiel d'action (appelé aussi influx nerveux) d'un neurone sensoriel avec une stimulation externe.
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Statistical theoryThe theory of statistics provides a basis for the whole range of techniques, in both study design and data analysis, that are used within applications of statistics. The theory covers approaches to statistical-decision problems and to statistical inference, and the actions and deductions that satisfy the basic principles stated for these different approaches. Within a given approach, statistical theory gives ways of comparing statistical procedures; it can find a best possible procedure within a given context for given statistical problems, or can provide guidance on the choice between alternative procedures.
Croissance démographiqueLa croissance démographique ou accroissement démographique ou variation totale de population est la différence entre l’effectif d’une population à la fin et au début d’une période donnée (généralement un an). Elle peut être exprimée par le taux d'évolution du nombre d’individus au sein d’une population par unité de temps et pour aussi n’importe quelle espèce (animale ou végétale, par exemple). Elle se décompose en deux parties distinctes : l’accroissement naturel ; le solde migratoire.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Population mondialeLa population mondiale est le nombre d'êtres humains vivant sur Terre à un instant donné. L’ONU l'estime à le . Elle avait été estimée à pour 2000, entre 1,55 et pour 1900, entre 0,813 et pour 1800 et entre 600 et d'habitants pour 1700. Cette augmentation de la population avec le temps tend cependant à ralentir avec une baisse mondiale de l'indice de fécondité, plus ou moins importante selon les pays. Le taux annuel de la croissance démographique de la population mondiale est tombé de 2,1 % au début des années 1960 à moins de 1 % en 2020.
Erreur typeLerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
Variance (mathématiques)vignette|Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de (écart-type = SD = 50). En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire.
Loi normale multidimensionnelleEn théorie des probabilités, on appelle loi normale multidimensionnelle, ou normale multivariée ou loi multinormale ou loi de Gauss à plusieurs variables, la loi de probabilité qui est la généralisation multidimensionnelle de la loi normale. gauche|vignette|Différentes densités de lois normales en un dimension. gauche|vignette|Densité d'une loi gaussienne en 2D. Une loi normale classique est une loi dite « en cloche » en une dimension.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Dynamique des populationsLa dynamique des populations est une branche de l'écologie qui s’intéresse à la fluctuation dans le temps du nombre d'individus au sein d'une population d’êtres vivants. Elle a également pour but de comprendre les influences environnementales sur les effectifs des populations. La structuration de la population par âge, poids, l'environnement, la biologie des groupes, et les processus qui influent sur ces changements font également partie de son champ d'étude.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Bootstrap (statistiques)En statistiques, les techniques de bootstrap sont des méthodes d'inférence statistique basées sur la réplication multiple des données à partir du jeu de données étudié, selon les techniques de rééchantillonnage. Elles datent de la fin des années 1970, époque où la possibilité de calculs informatiques intensifs devient abordable. On calculait depuis près d'un siècle des estimations : mesures de dispersion (variance, écart-type), intervalles de confiance, tables de décision pour des tests d'hypothèse, etc.
Décroissance démographiqueUne décroissance démographique ou un déclin démographique est, pour une zone ou un pays donné, une situation dans laquelle le nombre d’habitants diminue, que ce soit parce que le taux de mortalité est supérieur au taux de natalité, ou parce que les flux d’émigration nets sont supérieurs à l’accroissement naturel. Ces flux migratoires peuvent être induits par des guerres, des événements socio-politiques, des crises économiques ou des événements environnementaux (séismes, éruptions volcaniques, inondations).
Analyse procustéenneEn statistiques, l'analyse procustéenne est une technique pour comparer des formes. Elle est utilisée pour déformer un objet afin de le rendre autant que faire se peut semblable à une référence (potentiellement arbitraire), ne laissant apparaître entre l'objet et la référence que les différences que les transformations autorisées (rotation, translation et mise à l'échelle) n'ont pu gommer. La déformation supprime les différences qui ne sont pas dues à la forme intrinsèque de l'objet (mais par exemple à un biais introduit lors de l'acquisition des données).
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.