Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Loi de FisherEn théorie des probabilités et en statistiques, la loi de Fisher ou encore loi de Fisher-Snedecor ou encore loi F de Snedecor est une loi de probabilité continue. Elle tire son nom des statisticiens Ronald Aylmer Fisher et George Snedecor. La loi de Fisher survient très fréquemment en tant que loi de la statistique de test lorsque l'hypothèse nulle est vraie, dans des tests statistiques, comme les tests du ratio de vraisemblance, dans les tests de Chow utilisés en économétrie, ou encore dans l'analyse de la variance (ANOVA) via le test de Fisher.
Loi du χ²En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes. La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2. La loi du χ2 non centrée généralise la loi du . Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1.
Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.
Agent intelligentEn intelligence artificielle, un agent intelligent (AI) est une entité autonome capable de percevoir son environnement grâce à des capteurs et aussi d'agir sur celui-ci via des effecteurs afin de réaliser des objectifs. Un agent intelligent peut également apprendre ou utiliser des connaissances pour pouvoir réaliser ses objectifs. Ils peuvent être simples ou complexes. Par exemple, un simple système réactif, comme le thermostat est considéré comme étant un agent intelligent.
Agent logicielEn informatique, un agent ou agent logiciel (du latin agere : agir) est un logiciel qui agit de façon autonome. C'est un programme qui accomplit des tâches à la manière d'un automate et en fonction de ce que lui a demandé son auteur. Dans le contexte d'Internet, les agents intelligents sont liés au Web sémantique, dans lequel ils sont utilisés pour faire à la place des humains les recherches et les corrélations entre les résultats de ces recherches. Ceci se fait en fonction de règles prédéfinies.
Loi logistiqueEn probabilité et en statistiques, la loi logistique est une loi de probabilité absolument continue à support infini utilisé en régression logistique et pour les réseaux de neurones à propagation avant. Son nom de loi logistique est issu du fait que sa fonction de répartition est une fonction logistique. La loi logistique a deux paramètres μ et s > 0 et sa densité est Sa fonction de répartition est Son espérance et sa variance sont données par les formules suivantes : La loi logistique standard est la loi logistique de paramètres 0 et 1.
Relations publiquesvignette|La Conférence de presse est l'un des moyens courants pour le relations publiques de communiquer avec la presse, pour informer le public ; ici, avec le président des États-Unis George W. Bush et le Premier ministre britannique Tony Blair à la Maison-Blanche.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Loi de GumbelEn théorie des probabilités, la loi de Gumbel (ou distribution de Gumbel), du nom d'Émil Julius Gumbel, est une loi de probabilité continue. La loi de Gumbel est un cas particulier de la loi d'extremum généralisée au même titre que la loi de Weibull ou la loi de Fréchet. La loi de Gumbel est une approximation satisfaisante de la loi du maximum d'un échantillon de variables aléatoires indépendantes toutes de même loi, dès que cette loi appartient, précisément, au domaine d'attraction de la loi de Gumbel.
Loi exponentielleUne loi exponentielle modélise la durée de vie d'un phénomène sans mémoire, ou sans vieillissement, ou sans usure : la probabilité que le phénomène dure au moins s + t heures (ou n'importe quelle autre unité de temps) sachant qu'il a déjà duré t heures sera la même que la probabilité de durer s heures à partir de sa mise en fonction initiale. En d'autres termes, le fait que le phénomène ait duré pendant t heures ne change rien à son espérance de vie à partir du temps t.
Variable aléatoirevignette|La valeur d’un dé après un lancer est une variable aléatoire comprise entre 1 et 6. En théorie des probabilités, une variable aléatoire est une variable dont la valeur est déterminée après la réalisation d’un phénomène, expérience ou événement, aléatoire. En voici des exemples : la valeur d’un dé entre 1 et 6 ; le côté de la pièce dans un pile ou face ; le nombre de voitures en attente dans la 2e file d’un télépéage autoroutier ; le jour de semaine de naissance de la prochaine personne que vous rencontrez ; le temps d’attente dans la queue du cinéma ; le poids de la part de tomme que le fromager vous coupe quand vous lui en demandez un quart ; etc.
Present valueIn economics and finance, present value (PV), also known as present discounted value, is the value of an expected income stream determined as of the date of valuation. The present value is usually less than the future value because money has interest-earning potential, a characteristic referred to as the time value of money, except during times of zero- or negative interest rates, when the present value will be equal or more than the future value. Time value can be described with the simplified phrase, "A dollar today is worth more than a dollar tomorrow".
Hasardvignette|Les jeux de dés sont des symboles du hasard (jeux de hasard). vignette|Tyché ou Fortuna et sa corne d'abondance (fortune, hasard, en grec ancien, sort en latin) déesse allégorique gréco-romaine de la chance, des coïncidences, de la fortune, de la prospérité, de la destinée...|alt= Le hasard est le principe déclencheur d'événements non liés à une cause connue. Il peut être synonyme de l'« imprévisibilité », de l'« imprédictibilité », de fortune ou de destin.
Convergence de variables aléatoiresDans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).
PublicIn public relations and communication science, publics are groups of individual people, and the public (a.k.a. the general public) is the totality of such groupings. This is a different concept to the sociological concept of the Öffentlichkeit or public sphere. The concept of a public has also been defined in political science, psychology, marketing, and advertising. In public relations and communication science, it is one of the more ambiguous concepts in the field.
Matrice aléatoireEn théorie des probabilités et en physique mathématique, une matrice aléatoire est une matrice dont les éléments sont des variables aléatoires. La théorie des matrices aléatoires a pour objectif de comprendre certaines propriétés de ces matrices, comme leur norme d'opérateur, leurs valeurs propres ou leurs valeurs singulières. Face à la complexité croissante des spectres nucléaires observés expérimentalement dans les années 1950, Wigner a suggéré de remplacer l'opérateur hamiltonien du noyau par une matrice aléatoire.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.