Inférence causaleL'inférence causale est le processus par lequel on peut établir une relation de causalité entre un élément et ses effets. C'est un champ de recherche à la croisée des statistiques, de l'économétrie, de l'épidémiologie, de la méthodologie politique et de l'intelligence artificielle. En 1920, Sewall Wright développe la première path analysis. Cette analyse graphique des relations de causalité entre les variables constitue selon Judea Pearl un travail pionnier dans l'inférence causale.
Causal modelIn the philosophy of science, a causal model (or structural causal model) is a conceptual model that describes the causal mechanisms of a system. Several types of causal notation may be used in the development of a causal model. Causal models can improve study designs by providing clear rules for deciding which independent variables need to be included/controlled for. They can allow some questions to be answered from existing observational data without the need for an interventional study such as a randomized controlled trial.
Facteur de confusionEn statistique, un facteur de confusion, ou facteur confondant, ou encore variable confondante, est une variable aléatoire qui influence à la fois la variable dépendante et les variables explicatives. Ces facteurs sont notamment à l'origine de la différence entre corrélation et causalité (Cum hoc ergo propter hoc). En santé publique, c'est une variable liée à la fois au facteur de risque et à la maladie ou à un autre évènement de l'étude lié à la santé, ce qui est susceptible d'induire un biais dans l'analyse du lien (entre maladie et facteur de risque), produisant ainsi de fausses associations.
Modèle causal de Neyman-RubinLe modèle causal de Neyman-Rubin (ou modèle à résultats potentiels, en anglais potential outcome model) est un cadre de pensée permettant d'identifier statistiquement l'effet causal d'une variable sur une autre. La première version du modèle a été proposée par Jerzy Neyman en 1923 dans son mémoire de maîtrise. Le modèle a ensuite été généralisé par Donald Rubin dans un article intitulé « ». Le nom du modèle a été donné par Paul Holland dans un article de 1986 intitulé « ». Expérience naturelle Méthode des
Causal reasoningCausal reasoning is the process of identifying causality: the relationship between a cause and its effect. The study of causality extends from ancient philosophy to contemporary neuropsychology; assumptions about the nature of causality may be shown to be functions of a previous event preceding a later one. The first known protoscientific study of cause and effect occurred in Aristotle's Physics. Causal inference is an example of causal reasoning. Causal relationships may be understood as a transfer of force.
Causalitévignette|Exemple classique de la chute d'un domino causé par la chute d'un autre. En science, en philosophie et dans le langage courant, la causalité désigne la relation de cause à effet. la cause, corrélat de l'effet, c'est . C'est ce qui produit l'effet ; la causalité est le . Autrement dit, la causalité est l'influence par laquelle un événement, un processus, un état ou un objet (une cause) contribue à la production d'un autre événement, processus, état ou objet (un effet) considéré comme sa conséquence.
Dependent and independent variablesDependent and independent variables are variables in mathematical modeling, statistical modeling and experimental sciences. Dependent variables are studied under the supposition or demand that they depend, by some law or rule (e.g., by a mathematical function), on the values of other variables. Independent variables, in turn, are not seen as depending on any other variable in the scope of the experiment in question. In this sense, some common independent variables are time, space, density, mass, fluid flow rate, and previous values of some observed value of interest (e.
Spurious relationshipIn statistics, a spurious relationship or spurious correlation is a mathematical relationship in which two or more events or variables are associated but not causally related, due to either coincidence or the presence of a certain third, unseen factor (referred to as a "common response variable", "confounding factor", or "lurking variable"). An example of a spurious relationship can be found in the time-series literature, where a spurious regression is a one that provides misleading statistical evidence of a linear relationship between independent non-stationary variables.
Estimateur (statistique)En statistique, un estimateur est une fonction permettant d'estimer un moment d'une loi de probabilité (comme son espérance ou sa variance). Il peut par exemple servir à estimer certaines caractéristiques d'une population totale à partir de données obtenues sur un échantillon comme lors d'un sondage. La définition et l'utilisation de tels estimateurs constitue la statistique inférentielle. La qualité des estimateurs s'exprime par leur convergence, leur biais, leur efficacité et leur robustesse.
Propensity score matchingIn the statistical analysis of observational data, propensity score matching (PSM) is a statistical matching technique that attempts to estimate the effect of a treatment, policy, or other intervention by accounting for the covariates that predict receiving the treatment. PSM attempts to reduce the bias due to confounding variables that could be found in an estimate of the treatment effect obtained from simply comparing outcomes among units that received the treatment versus those that did not. Paul R.
Loi de probabilité à queue lourdevignette|Long tail. Dans la théorie des probabilités, une loi de probabilité à queue lourde est une loi de probabilité dont les queues ne sont pas exponentiellement bornées, ce qui signifie qu'elles ont des queues plus « lourdes » que la loi exponentielle. Dans de nombreuses applications, c'est la queue droite de la distribution qui est intéressante, mais une distribution peut avoir une queue lourde à gauche, ou les deux queues peuvent être lourdes.
Paradoxe de SimpsonLe paradoxe de Simpson ou effet de Yule-Simpson est un paradoxe statistique décrit par Edward Simpson en 1951 et George Udny Yule en 1903, dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés. Ce résultat, qui semble impossible au premier abord, est lié à des éléments qui ne sont pas pris en compte, comme la présence de variables non indépendantes ou de différences d'effectifs entre les groupes ; il est souvent rencontré dans la réalité, en particulier dans les sciences sociales et les statistiques médicales.
Bayes estimatorIn estimation theory and decision theory, a Bayes estimator or a Bayes action is an estimator or decision rule that minimizes the posterior expected value of a loss function (i.e., the posterior expected loss). Equivalently, it maximizes the posterior expectation of a utility function. An alternative way of formulating an estimator within Bayesian statistics is maximum a posteriori estimation. Suppose an unknown parameter is known to have a prior distribution .
Analyse de cause racineL'analyse de cause racine (ACR ; ) est une démarche de résolution de problème partant du constat qu'il est plus judicieux de traiter les causes d'un problème que d'en traiter les symptômes immédiats. En effet, l'analyse des causes d'un problème permet d'en déterminer une solution définitive, et donc, empêcher qu'il ne se reproduise de nouveau. L’ACR est un processus itératif d'amélioration continue. Résolution de problème QQOQCCP Diagramme d'Ishikawa Arbre des causes Arbre de défaillances Cinq pourquoi Diag
Randomized experimentIn science, randomized experiments are the experiments that allow the greatest reliability and validity of statistical estimates of treatment effects. Randomization-based inference is especially important in experimental design and in survey sampling. In the statistical theory of design of experiments, randomization involves randomly allocating the experimental units across the treatment groups. For example, if an experiment compares a new drug against a standard drug, then the patients should be allocated to either the new drug or to the standard drug control using randomization.
Consistent estimatorIn statistics, a consistent estimator or asymptotically consistent estimator is an estimator—a rule for computing estimates of a parameter θ0—having the property that as the number of data points used increases indefinitely, the resulting sequence of estimates converges in probability to θ0. This means that the distributions of the estimates become more and more concentrated near the true value of the parameter being estimated, so that the probability of the estimator being arbitrarily close to θ0 converges to one.
Extremum estimatorIn statistics and econometrics, extremum estimators are a wide class of estimators for parametric models that are calculated through maximization (or minimization) of a certain objective function, which depends on the data. The general theory of extremum estimators was developed by . An estimator is called an extremum estimator, if there is an objective function such that where Θ is the parameter space. Sometimes a slightly weaker definition is given: where op(1) is the variable converging in probability to zero.
Variable latenteIn statistics, latent variables (from Latin: present participle of lateo, “lie hidden”) are variables that can only be inferred indirectly through a mathematical model from other observable variables that can be directly observed or measured. Such latent variable models are used in many disciplines, including political science, demography, engineering, medicine, ecology, physics, machine learning/artificial intelligence, bioinformatics, chemometrics, natural language processing, management, psychology and the social sciences.
Témoin (science)vignette|Deux échantillons de vin avec, à gauche, un échantillon ayant subit une oxydation contrôlée sur moût et, à droite, le témoin. On observe une plus forte oxydation (couleur orange) dans le témoin. Dans une expérience scientifique, un témoin est un dispositif permettant d'isoler un facteur et de conclure sur l'action de ce facteur sur un phénomène physique ou biologique. Le témoin est nécessaire pour vérifier la probité de toute expérience scientifique. Dans une expérience, deux dispositifs sont mis en route.
Inférence (logique)L’inférence est un mouvement de la pensée qui permet de passer d'une ou plusieurs assertions, des énoncés ou propositions affirmés comme vrais, appelés prémisses, à une nouvelle assertion qui en est la conclusion. Étymologiquement, le mot inférence signifie « reporter ». En théorie, l'inférence est traditionnellement divisée en déduction et induction, une distinction qui, en Europe, remonte au moins à Aristote ( avant Jésus-Christ). On distingue les inférences immédiates des inférences médiates telles que déductives, inductives et abductives.