Fonction de masse (probabilités)En théorie des probabilités, la fonction de masse est la fonction qui donne la probabilité de chaque issue ( résultat élémentaire) d'une expérience aléatoire. C'est souvent ainsi que l'on définit une loi de probabilité discrète. Elle se distingue de la fonction de densité, de la densité de probabilité, en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues, et que ce sont leurs intégrales sur des domaines qui ont valeurs de probabilités (et non leurs valeurs en des points).
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Variable aléatoire à densitéEn théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
Force de van der Waalsvignette|Tête et pattes avant d'un Gecko (espèce non précisée, queue en forme de feuille) En physique et en chimie, une force de van der Waals, interaction de van der Waals ou liaison de van der Waals est un potentiel interatomique dû à une interaction électrique de faible intensité entre deux atomes ou molécules, ou entre une molécule et un cristal. Elle représente la moyenne statistique de toutes les configurations possibles pour l'interaction, pondérées par leur probabilité à l'équilibre thermodynamique.
Force intermoléculaireLes forces intermoléculaires sont des forces de nature essentiellement électrostatique induisant une attraction ou une répulsion entre des particules chimiques (atomes, molécules ou ions). Ces forces sont en général bien plus faibles que les forces intramoléculaires qui assurent l'association des atomes dans les molécules.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Théorie des probabilitésLa théorie des probabilités en mathématiques est l'étude des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard qui sont partie intégrante des mathématiques. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques par exemple. Bien que le calcul de probabilités sur des questions liées au hasard existe depuis longtemps, la formalisation mathématique n'est que récente.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Conditional probability distributionIn probability theory and statistics, given two jointly distributed random variables and , the conditional probability distribution of given is the probability distribution of when is known to be a particular value; in some cases the conditional probabilities may be expressed as functions containing the unspecified value of as a parameter. When both and are categorical variables, a conditional probability table is typically used to represent the conditional probability.
Interaction élémentaireQuatre interactions élémentaires sont responsables de tous les phénomènes physiques observés dans l'Univers, chacune se manifestant par une force dite force fondamentale. Ce sont l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction faible et l'interaction gravitationnelle. En physique classique, les lois de la gravitation et de l'électromagnétisme étaient considérées comme axiomes.
Entropy and lifeResearch concerning the relationship between the thermodynamic quantity entropy and both the origin and evolution of life began around the turn of the 20th century. In 1910, American historian Henry Adams printed and distributed to university libraries and history professors the small volume A Letter to American Teachers of History proposing a theory of history based on the second law of thermodynamics and on the principle of entropy. The 1944 book What is Life? by Nobel-laureate physicist Erwin Schrödinger stimulated further research in the field.
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Relativité généraleLa relativité générale est une théorie relativiste de la gravitation, c'est-à-dire qu'elle décrit l'influence de la présence de matière, et plus généralement d'énergie, sur le mouvement des astres en tenant compte des principes de la relativité restreinte. La relativité générale englobe et supplante la théorie de la gravitation universelle d'Isaac Newton qui en représente la limite aux petites vitesses (comparées à la vitesse de la lumière) et aux champs gravitationnels faibles.
Fluide non newtonienUn fluide non newtonien est un fluide qui ne suit pas la loi de viscosité de Newton, c'est-à-dire une viscosité constante indépendante de la contrainte. Dans les fluides non newtoniens, la viscosité peut changer lorsqu'elle est soumise à une force pour devenir plus liquide ou plus solide. Le ketchup, par exemple, devient plus coulant lorsqu'il est secoué et se comporte donc de manière non newtonienne.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Fluide newtonienOn appelle fluide newtonien (en hommage à Isaac Newton) un fluide dont la loi contrainte – vitesse de déformation est linéaire. La constante de proportionnalité est appelée viscosité. Viscosité L’équation décrivant le « comportement newtonien » en description eulérienne est : où : est la contrainte de cisaillement exercée par le fluide (à l'origine des forces de traînée), exprimée en Pa ; est la viscosité dynamique du fluide — une constante de proportionnalité caractéristique du matériau, en ; est le gradient de vitesse perpendiculaire à la direction de cisaillement, en s−1.
Alternatives to general relativityAlternatives to general relativity are physical theories that attempt to describe the phenomenon of gravitation in competition with Einstein's theory of general relativity. There have been many different attempts at constructing an ideal theory of gravity. These attempts can be split into four broad categories based on their scope. In this article, straightforward alternatives to general relativity are discussed, which do not involve quantum mechanics or force unification.
Relativité restreinteLa relativité restreinte est la théorie élaborée par Albert Einstein en 1905 en vue de tirer toutes les conséquences physiques de la relativité galiléenne et du principe selon lequel la vitesse de la lumière dans le vide a la même valeur dans tous les référentiels galiléens (ou inertiels), ce qui était implicitement énoncé dans les équations de Maxwell (mais interprété bien différemment jusque-là, avec « l'espace absolu » de Newton et léther).