Loi de WeibullEn théorie des probabilités, la loi de Weibull, nommée d'après Waloddi Weibull en 1951, est une loi de probabilité continue. La loi de Weibull est un cas spécial de loi d'extremum généralisée au même titre que la loi de Gumbel ou la loi de Fréchet. Avec deux paramètres (pour x > 0), la densité de probabilité est : où k > 0 est le paramètre de forme et λ > 0 le paramètre d'échelle de la distribution.
Loi d'extremum généraliséeEn probabilité et statistique, la loi d'extrémum généralisée est une famille de lois de probabilité continues qui servent à représenter des phénomènes de valeurs extrêmes (minimum ou maximum). Elle comprend la loi de Gumbel, la loi de Fréchet et la loi de Weibull, respectivement lois d'extrémum de type I, II et III. Le théorème de Fisher-Tippett-Gnedenko établit que la loi d'extremum généralisée est la distribution limite du maximum (adéquatement normalisé) d'une série de variables aléatoires indépendantes de même distribution (iid).
Loi de GumbelEn théorie des probabilités, la loi de Gumbel (ou distribution de Gumbel), du nom d'Émil Julius Gumbel, est une loi de probabilité continue. La loi de Gumbel est un cas particulier de la loi d'extremum généralisée au même titre que la loi de Weibull ou la loi de Fréchet. La loi de Gumbel est une approximation satisfaisante de la loi du maximum d'un échantillon de variables aléatoires indépendantes toutes de même loi, dès que cette loi appartient, précisément, au domaine d'attraction de la loi de Gumbel.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
ITERLe réacteur thermonucléaire expérimental international, ou ITER (acronyme de l'anglais International thermonuclear experimental reactor, également mot latin signifiant « chemin » ou « voie »), est un projet international de réacteur nucléaire de recherche civil à fusion nucléaire de type tokamak, situé à proximité immédiate du centre d’études nucléaires de Cadarache à Saint-Paul-lez-Durance (Bouches-du-Rhône, France). Le projet de recherche s'inscrit dans une démarche à long terme visant à l'industrialisation de la fusion nucléaire.
Filament intermédiaireLes filaments intermédiaires ont une dimension intermédiaire (de 8 à 12 nm) entre les filaments fins d'actine et les microtubules formant à eux trois, le cytosquelette. Décrits d'abord dans les muscles, ce sont les structures les plus stables du cytosquelette. En effet, les traitements dissolvant les microtubules et les microfilaments laissent apparaître le réseau de filaments intermédiaires. De plus, ces structures semblent ne pas être désassemblées aussi souvent que les microtubules et les microfilaments.
StatistiqueLa statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous. C'est à la fois une branche des mathématiques appliquées, une méthode et un ensemble de techniques. ce qui permet de différencier ses applications mathématiques avec une statistique (avec une minuscule). Le pluriel est également souvent utilisé pour la désigner : « les statistiques ».
Protein filamentIn biology, a protein filament is a long chain of protein monomers, such as those found in hair, muscle, or in flagella. Protein filaments form together to make the cytoskeleton of the cell. They are often bundled together to provide support, strength, and rigidity to the cell. When the filaments are packed up together, they are able to form three different cellular parts. The three major classes of protein filaments that make up the cytoskeleton include: actin filaments, microtubules and intermediate filaments.
Filament d'actineUn filament d'actine, ou microfilament, est un homopolymère d'actine, protéine de 42 kDa (Unité de masse atomique). C'est un constituant essentiel du cytosquelette des cellules eucaryotes, ainsi que des fibres musculaires. L'actine représente ainsi environ 10 % du total des protéines d'une cellule animale typique, la moitié étant assemblée en filaments d'actine alors que l'autre moitié est libre dans le cytosol sous forme de monomères d'actine.
Énergie de fusion nucléairevignette| L'expérience de fusion magnétique du Joint European Torus (JET) en 1991. L'énergie de fusion nucléaire est une forme de production d'électricité du futur qui utilise la chaleur produite par des réactions de fusion nucléaire. Dans un processus de fusion, deux noyaux atomiques légers se combinent pour former un noyau plus lourd, tout en libérant de l'énergie. De telles réactions se produisent en permanence au sein des étoiles. Les dispositifs conçus pour exploiter cette énergie sont connus sous le nom de réacteurs à fusion nucléaire.
Loi Gamma généraliséeEn théorie des probabilités et en statistiques, une loi Gamma généralisée est un type de loi de probabilité de variables aléatoires réelles positives avec deux paramètres de forme (et un paramètre d'échelle), qui est une extension de la loi Gamma avec un paramètre de forme additionnel. Comme de nombreuses lois sont utilisées comme modèles paramétriques dans l'analyse de survie (telles que la loi exponentielle, la loi de Weibull et la loi Gamma) sont des cas particuliers de la loi Gamma généralisée, elle est parfois utilisée pour déterminer quel modèle paramétrique est adapté pour un jeu de données.
Analyse séquentielleEn statistique, l'analyse séquentielle, ou test d'hypothèse séquentiel, est une analyse statistique où la taille de l'échantillon n'est pas fixée à l'avance. Plutôt, les données sont évaluées au fur et à mesure qu'elles sont recueillies, et l'échantillonnage est arrêté selon une règle d'arrêt prédéfinie, dès que des résultats significatifs sont observés. Une conclusion peut ainsi parfois être atteinte à un stade beaucoup plus précoce que ce qui serait possible avec des tests d'hypothèse ou des estimations plus classiques, à un coût financier ou humain par conséquent inférieur.
Loi de FréchetEn théorie des probabilités et en statistique, la loi de Fréchet est un cas particulier de loi d'extremum généralisée au même titre que la loi de Gumbel ou la loi de Weibull. Le nom de cette loi est dû à Maurice Fréchet, auteur d'un article à ce sujet en 1927. Des travaux ultérieurs ont été réalisés par Ronald Aylmer Fisher et L. H. C. Tippett en 1928 et par Emil Julius Gumbel en 1958. Sa fonction de répartition est donnée par : où est un paramètre de forme.
CytosqueletteLe cytosquelette d'une cellule est l'ensemble organisé des polymères biologiques qui lui confèrent l'essentiel de ses propriétés architecturales et mécaniques.
DesmosomeUn desmosome est une région où la membrane plasmique d'une cellule adhère à une cellule adjacente ou à la lame basale sous-jacente, il est alors appelé hémidesmosome. La nature des filaments intermédiaires est variable (cytokératine dans les cellules épithéliales, vimentine dans les fibroblastes et les endodermes, neurofilament dans les cellules nerveuses ou encore lamine dans les noyaux). Les desmosomes du type macula adherens, se retrouvant presque exclusivement dans les cellules épithéliales par les filaments intermédiaires associés, sur leur extrémité COOH intracytoplasmique, à des cadhérines.
Diagramme quantile-quantilethumb|upright=1.5|Diagramme Q-Q destiné à comparer une loi de distribution préalablement centrée et réduite avec une loi normale En statistiques, le diagramme Quantile-Quantile ou diagramme Q-Q ou Q-Q plot est un outil graphique permettant d'évaluer la pertinence de l'ajustement d'une distribution donnée à un modèle théorique. Le terme de quantile-quantile provient du fait que l'on compare la position de certains quantiles dans la population observée avec leur position dans la population théorique.
Analyse de la varianceEn statistique, lanalyse de la variance (terme souvent abrégé par le terme anglais ANOVA : analysis of variance) est un ensemble de modèles statistiques utilisés pour vérifier si les moyennes des groupes proviennent d'une même population. Les groupes correspondent aux modalités d'une variable qualitative (p. ex. variable : traitement; modalités : programme d'entrainement sportif, suppléments alimentaires; placebo) et les moyennes sont calculés à partir d'une variable continue (p. ex. gain musculaire).
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Tokamakthumb|Vue intérieure du tore du Tokamak à configuration variable (TCV), dont les parois sont recouvertes de tuiles de graphite. Un tokamak est un dispositif de confinement magnétique expérimental explorant la physique des plasmas et les possibilités de produire de l'énergie par fusion nucléaire. Il existe deux types de tokamaks aux caractéristiques sensiblement différentes, les tokamaks traditionnels toriques (objet de cet article) et les tokamaks sphériques.
Land degradationLand degradation is a process in which the value of the biophysical environment is affected by a combination of human-induced processes acting upon the land. It is viewed as any change or disturbance to the land perceived to be deleterious or undesirable. Natural hazards are excluded as a cause; however human activities can indirectly affect phenomena such as floods and bush fires. Expert projections suggest that land degradation will be an important theme of the 21st century, impacting agricultural productivity, biodiversity loss, environmental change, and its effects on food security.