Pratique fondée sur les preuvesLa pratique fondée sur les preuves, sur les faits, ou sur des données probantes est une approche interdisciplinaire de la pratique clinique qui a gagné du terrain après son apparition au début des années 1990 par l'intermédiaire du médecin canadien Gordon Guyatt. En 1992, une publication indique : . Elle a commencé en médecine comme médecine factuelle (EBM) et se propage aux professions paramédicales de la santé, domaines éducatifs et autres.
Preuve empiriquePreuve empirique, données ou connaissance, aussi appelée expérience des sens, est un terme collectif pour désigner la connaissance ou les sources de la connaissance acquise au moyen des sens, en particulier par l'observation et l'expérimentation. Le terme vient du mot grec ancien pour expérience, ἐμπειρία (empeiría). Après Emmanuel Kant, il est habituel en philosophie d'appeler une connaissance ainsi acquise connaissance a posteriori. Cela en opposition à une connaissance a priori, connaissance accessible à partir de la pensée spéculative seule.
Médecine fondée sur les faitsLa médecine fondée sur les faits (ou médecine fondée sur les données probantes ; voir les autres synonymes) se définit comme . On utilise plus couramment le terme anglais , et parfois les termes médecine fondée sur les preuves ou médecine factuelle. Ces preuves proviennent d'études cliniques systématiques, telles que des essais contrôlés randomisés en double aveugle, des méta-analyses, éventuellement des études transversales ou de suivi bien construites.
Hypothèse nulleEn statistiques et en économétrie, l'hypothèse nulle (symbole international : ) est une hypothèse postulant l'égalité entre des paramètres statistiques (généralement, la moyenne ou la variance) de deux échantillons dont elle fait l’hypothèse qu'ils sont pris sur des populations équivalentes. Elle est toujours testée contre une hypothèse alternative qui postule soit la différence des données (test bilatéral), soit une inégalité (plus petit que ou plus grand que) entre les données (test unilatéral).
PreuveUne preuve, (en science ou en droit) est un fait ou un raisonnement propre à établir la vérité. Une preuve est associée à son niveau d'incertitude quand elle est utilisée. Les éléments inductifs et déductifs qui y sont attachés lui confèrent donc un certain niveau d'incertitude. L'évaluation intuitive de ce niveau détermine le degré de confiance qu'on peut apporter à la preuve. La plupart des preuves utilisées dans la vie courante sont communément admises comme étant dignes de confiance.
Hypothèse de Riemann généraliséeL'hypothèse de Riemann est l'une des plus importantes conjectures des mathématiques et concerne les zéros de la fonction ζ de Riemann. Divers objets géométriques et arithmétiques peuvent être décrits par ce que l'on appelle les fonctions L globales, qui sont similaires formellement à la fonction zêta de Riemann. On peut alors se poser la même question à propos des zéros de ces fonctions L, fournissant diverses généralisations de l'hypothèse de Riemann.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Hypothèse de RiemannEn mathématiques, l'hypothèse de Riemann est une conjecture formulée en 1859 par le mathématicien allemand Bernhard Riemann, selon laquelle les zéros non triviaux de la fonction zêta de Riemann ont tous une partie réelle égale à 1/2. Sa démonstration améliorerait la connaissance de la répartition des nombres premiers et ouvrirait des nouveaux domaines aux mathématiques. Cette conjecture constitue l'un des problèmes non résolus les plus importants des mathématiques du début du : elle est l'un des vingt-trois fameux problèmes de Hilbert proposés en 1900, l'un des sept problèmes du prix du millénaire et l'un des dix-huit problèmes de Smale.
Bayes estimatorIn estimation theory and decision theory, a Bayes estimator or a Bayes action is an estimator or decision rule that minimizes the posterior expected value of a loss function (i.e., the posterior expected loss). Equivalently, it maximizes the posterior expectation of a utility function. An alternative way of formulating an estimator within Bayesian statistics is maximum a posteriori estimation. Suppose an unknown parameter is known to have a prior distribution .
Empirical risk minimizationEmpirical risk minimization (ERM) is a principle in statistical learning theory which defines a family of learning algorithms and is used to give theoretical bounds on their performance. The core idea is that we cannot know exactly how well an algorithm will work in practice (the true "risk") because we don't know the true distribution of data that the algorithm will work on, but we can instead measure its performance on a known set of training data (the "empirical" risk).
Théorie des jeuxLa théorie des jeux est un domaine des mathématiques qui propose une description formelle d'interactions stratégiques entre agents (appelés « joueurs »). Les fondements mathématiques de la théorie moderne des jeux sont décrits autour des années 1920 par Ernst Zermelo dans l'article , et par Émile Borel dans l'article . Ces idées sont ensuite développées par Oskar Morgenstern et John von Neumann en 1944 dans leur ouvrage qui est considéré comme le fondement de la théorie des jeux moderne.
Risk aversionIn economics and finance, risk aversion is the tendency of people to prefer outcomes with low uncertainty to those outcomes with high uncertainty, even if the average outcome of the latter is equal to or higher in monetary value than the more certain outcome. Risk aversion explains the inclination to agree to a situation with a more predictable, but possibly lower payoff, rather than another situation with a highly unpredictable, but possibly higher payoff.
Evidence-based policyEvidence-based policy is a concept in public policy that advocates for policy decisions to be grounded on, or influenced by, rigorously established objective evidence. This concept presents a stark contrast to policymaking predicated on ideology, 'common sense,' anecdotes, or personal intuitions. The approach mirrors the effective altruism movement's philosophy within governmental circles. The methodology employed in evidence-based policy often includes comprehensive research methods such as randomized controlled trials (RCT).
Hierarchy of evidenceA hierarchy of evidence, comprising levels of evidence (LOEs), that is, evidence levels (ELs), is a heuristic used to rank the relative strength of results obtained from experimental research, especially medical research. There is broad agreement on the relative strength of large-scale, epidemiological studies. More than 80 different hierarchies have been proposed for assessing medical evidence. The design of the study (such as a case report for an individual patient or a blinded randomized controlled trial) and the endpoints measured (such as survival or quality of life) affect the strength of the evidence.
Algorithme minimaxL'algorithme minimax (aussi appelé algorithme MinMax) est un algorithme qui s'applique à la théorie des jeux pour les jeux à deux joueurs à somme nulle (et à information complète) consistant à minimiser la perte maximum (c'est-à-dire dans le pire des cas). Pour une vaste famille de jeux, le théorème du minimax de von Neumann assure l'existence d'un tel algorithme, même si dans la pratique il n'est souvent guère aisé de le trouver.
Recherche empiriqueLa recherche empirique explore le monde sensible en s'appuyant sur l’expérimentation, l’observation, ainsi que sur un processus d'évaluation par les pairs qui permet de faire un tri dans les connaissances scientifiques produites et de ne garder, au fil du temps, que ce qui reste valide. Il existe deux types de sciences empiriques : les sciences humaines et sociales ainsi que les sciences naturelles. Le raisonnement empirique se déroule en différentes étapes qui se répètent, c'est pourquoi on parle même de cycle de raisonnement.
Apprentissage superviséL'apprentissage supervisé (supervised learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé. On distingue les problèmes de régression des problèmes de classement. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Fonctionnalisme (philosophie)En philosophie de l'esprit, le fonctionnalisme est une théorie qui, pour des raisons méthodologiques, conçoit l'esprit comme un système de traitement de l'information et compare la pensée à un calcul (en anglais, computation; Hobbes concevait la raison de cette façon). Issu des recherches en intelligence artificielle, le fonctionnalisme ajoute en outre une théorie causale des états mentaux : les états mentaux sont reliés entre eux par le principe de causalité.