Loi de GumbelEn théorie des probabilités, la loi de Gumbel (ou distribution de Gumbel), du nom d'Émil Julius Gumbel, est une loi de probabilité continue. La loi de Gumbel est un cas particulier de la loi d'extremum généralisée au même titre que la loi de Weibull ou la loi de Fréchet. La loi de Gumbel est une approximation satisfaisante de la loi du maximum d'un échantillon de variables aléatoires indépendantes toutes de même loi, dès que cette loi appartient, précisément, au domaine d'attraction de la loi de Gumbel.
Loi logistiqueEn probabilité et en statistiques, la loi logistique est une loi de probabilité absolument continue à support infini utilisé en régression logistique et pour les réseaux de neurones à propagation avant. Son nom de loi logistique est issu du fait que sa fonction de répartition est une fonction logistique. La loi logistique a deux paramètres μ et s > 0 et sa densité est Sa fonction de répartition est Son espérance et sa variance sont données par les formules suivantes : La loi logistique standard est la loi logistique de paramètres 0 et 1.
Loi d'extremum généraliséeEn probabilité et statistique, la loi d'extrémum généralisée est une famille de lois de probabilité continues qui servent à représenter des phénomènes de valeurs extrêmes (minimum ou maximum). Elle comprend la loi de Gumbel, la loi de Fréchet et la loi de Weibull, respectivement lois d'extrémum de type I, II et III. Le théorème de Fisher-Tippett-Gnedenko établit que la loi d'extremum généralisée est la distribution limite du maximum (adéquatement normalisé) d'une série de variables aléatoires indépendantes de même distribution (iid).
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.
Confidence distributionIn statistical inference, the concept of a confidence distribution (CD) has often been loosely referred to as a distribution function on the parameter space that can represent confidence intervals of all levels for a parameter of interest. Historically, it has typically been constructed by inverting the upper limits of lower sided confidence intervals of all levels, and it was also commonly associated with a fiducial interpretation (fiducial distribution), although it is a purely frequentist concept.
Dirichlet-multinomial distributionIn probability theory and statistics, the Dirichlet-multinomial distribution is a family of discrete multivariate probability distributions on a finite support of non-negative integers. It is also called the Dirichlet compound multinomial distribution (DCM) or multivariate Pólya distribution (after George Pólya). It is a compound probability distribution, where a probability vector p is drawn from a Dirichlet distribution with parameter vector , and an observation drawn from a multinomial distribution with probability vector p and number of trials n.
Biais (distorsion)Dans diverses disciplines, un biais est une erreur systématique ou une simplification abusive. vignette|L'interprétation des formes aléatoires apparaissant à la surface de la Lune constitue un exemple courant de biais perceptuel causé par la paréidolie (processus tendant à discerner une forme familière parmi des formes aléatoires). Les biais peuvent être transmis implicitement avec le contexte culturel.
Nombre de sujets nécessairesEn statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.
Binomial proportion confidence intervalIn statistics, a binomial proportion confidence interval is a confidence interval for the probability of success calculated from the outcome of a series of success–failure experiments (Bernoulli trials). In other words, a binomial proportion confidence interval is an interval estimate of a success probability p when only the number of experiments n and the number of successes nS are known. There are several formulas for a binomial confidence interval, but all of them rely on the assumption of a binomial distribution.
Biais de confirmationLe biais de confirmation, également dénommé biais de , est le biais cognitif qui consiste à privilégier les informations confirmant ses idées préconçues ou ses hypothèses, ou à accorder moins de poids aux hypothèses et informations jouant en défaveur de ses conceptions, ce qui se traduit par une réticence à changer d'avis. Ce biais se manifeste chez un individu lorsqu'il rassemble des éléments ou se rappelle des informations mémorisées, de manière sélective, les interprétant d'une manière biaisée.
Coverage probabilityIn statistics, the coverage probability, or coverage for short, is the probability that a confidence interval or confidence region will include the true value (parameter) of interest. It can be defined as the proportion of instances where the interval surrounds the true value as assessed by long-run frequency. The fixed degree of certainty pre-specified by the analyst, referred to as the confidence level or confidence coefficient of the constructed interval, is effectively the nominal coverage probability of the procedure for constructing confidence intervals.
Mesure physiqueLa mesure physique est l'action de déterminer la ou les valeurs d'une grandeur (longueur, capacité), par comparaison avec une grandeur constante de même espèce prise comme terme de référence (étalon ou unité). Selon la définition canonique : La mesure physique vise à l'objectivité et à la reproductibilité. La comparaison est numérique ; on exprime une caractéristique bien définie de l'objet par un nombre rationnel multipliant l'unité.
Intervalle de fluctuationEn mathématiques, un intervalle de fluctuation, aussi appelé intervalle de pari, permet de détecter un écart important par rapport à la valeur théorique pour une grandeur établie sur un échantillon. C'est un intervalle dans lequel la grandeur observée est censée se trouver avec une forte probabilité (souvent de l'ordre de 95 %). Le fait d'obtenir une valeur en dehors de cet intervalle s'interprète alors en mettant en cause la représentativité de l'échantillon ou la valeur théorique.
Puissance statistiqueLa puissance statistique d'un test est en statistique la probabilité de rejeter l'hypothèse nulle (par exemple l'hypothèse selon laquelle les groupes sont identiques au regard d'une variable) sachant que l'hypothèse nulle est incorrecte (en réalité les groupes sont différents). On peut l'exprimer sous la forme 1-β où β est le risque de c'est-à-dire le risque de ne pas démontrer que deux groupes sont différents alors qu'ils le sont dans la réalité.
Art algorithmiqueL'art algorithmique, également connu sous le nom d'art des algorithmes, est l'art, et plus précisément l'art visuel, dont la conception est générée par un algorithme. Les artistes algorithmiques sont parfois appelés algoristes. L'art algorithmique est un sous-domaine de l'art génératif (généré par un système autonome) et est lié à l'art des systèmes (influencé par la théorie des systèmes). L'art fractal est un exemple d'art algorithmique. gauche|vignette|Figures géométriques arabes dans le temple de Darb-e Emam à Isfahan, précurseurs de l'art algorithmique.
Allocation de Dirichlet latenteDans le domaine du traitement automatique des langues, l’allocation de Dirichlet latente (de l’anglais Latent Dirichlet Allocation) ou LDA est un modèle génératif probabiliste permettant d’expliquer des ensembles d’observations, par le moyen de groupes non observés, eux-mêmes définis par des similarités de données. Par exemple, si les observations () sont les mots collectés dans un ensemble de documents textuels (), le modèle LDA suppose que chaque document () est un mélange () d’un petit nombre de sujets ou thèmes ( topics), et que la génération de chaque occurrence d’un mot () est attribuable (probabilité) à l’un des thèmes () du document.
Compound probability distributionIn probability and statistics, a compound probability distribution (also known as a mixture distribution or contagious distribution) is the probability distribution that results from assuming that a random variable is distributed according to some parametrized distribution, with (some of) the parameters of that distribution themselves being random variables. If the parameter is a scale parameter, the resulting mixture is also called a scale mixture.
Art créé par intelligence artificiellevignette|Portrait d'Edmond de Belamy, œuvre créée grâce à une intelligence artificielle par le collectif français Obvious en 2018. L'art créé par intelligence artificielle (en Artificial intelligence art ou AI art) est toute œuvre d'art créée par une personne avec l'interventionnisme d'une intelligence artificielle. Il existe de nombreux mécanismes pour créer de l'art IA, notamment la génération procédurale d'images basée sur des règles à l'aide de modèles mathématiques, des algorithmes qui simulent des coups de pinceau et d'autres effets de peinture, et des algorithmes d'intelligence artificielle ou d'apprentissage profond tels que les réseaux antagonistes génératifs et les transformateurs.
Video game artVideo game art is a specialized form of computer art employing video games as the artistic medium. Video game art often involves the use of patched or modified video games or the repurposing of existing games or game structures, however it relies on a broader range of artistic techniques and outcomes than artistic modification and it may also include painting, sculpture, appropriation, in-game intervention and performance, sampling, etc. It may also include the creation of art games either from scratch or by modifying existing games.
Latent class modelIn statistics, a latent class model (LCM) relates a set of observed (usually discrete) multivariate variables to a set of latent variables. It is a type of latent variable model. It is called a latent class model because the latent variable is discrete. A class is characterized by a pattern of conditional probabilities that indicate the chance that variables take on certain values. Latent class analysis (LCA) is a subset of structural equation modeling, used to find groups or subtypes of cases in multivariate categorical data.