Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Fonction quantileEn probabilités, la fonction quantile est une fonction qui définit les quantiles. Soit X une variable aléatoire et F sa fonction de répartition, la fonction quantile est définie par pour toute valeur de , la notation désignant l’inverse généralisé à gauche de . Si F est une fonction strictement croissante et continue, alors est l'unique valeur de telle que . correspond alors à la fonction réciproque de , notée . En revanche, pour les lois discrètes, les fonctions de répartition sont toutes en escalier, d'où l'intérêt de la définition précédente.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Fabrication des dispositifs à semi-conducteursthumb|upright=1.5|Évolution de la finesse de gravure des processeurs entre 1970 et 2017 La fabrication des dispositifs à semi-conducteur englobe les différentes opérations permettant l'élaboration de composants électroniques basés sur des matériaux semi-conducteurs. Entrent dans cette catégorie de composants à semi-conducteur, les composants discrets qui n'ont qu'une seule fonction comme les diodes et les transistors, et les circuits intégrés plus complexes, intégrant plusieurs composants, jusqu'à des milliards, dans le même boîtier.
Parametric familyIn mathematics and its applications, a parametric family or a parameterized family is a family of objects (a set of related objects) whose differences depend only on the chosen values for a set of parameters. Common examples are parametrized (families of) functions, probability distributions, curves, shapes, etc. Statistical model For example, the probability density function fX of a random variable X may depend on a parameter θ. In that case, the function may be denoted to indicate the dependence on the parameter θ.
Fonction objectifvignette|comparaison de certains substituts de la fonction de perte Le terme fonction objectif ou fonction économique, est utilisé en optimisation mathématique et en recherche opérationnelle pour désigner une fonction qui sert de critère pour déterminer la meilleure solution à un problème d'optimisation. Elle associe une valeur à une instance d'un problème d'optimisation. Le but du problème d'optimisation est alors de minimiser ou de maximiser cette fonction jusqu'à l'optimum, par différents procédés comme l'algorithme du simplexe.
Semiconductor fabrication plantIn the microelectronics industry, a semiconductor fabrication plant (commonly called a fab; sometimes foundry) is a factory for semiconductor device fabrication. Fabs require many expensive devices to function. Estimates put the cost of building a new fab over one billion U.S. dollars with values as high as 3–4billionnotbeinguncommon.TSMCinvested9.3 billion in its Fab15 300 mm wafer manufacturing facility in Taiwan. The same company estimations suggest that their future fab might cost $20 billion. Restauration (métallurgie)En métallurgie, la restauration est le nom d'un traitement thermique (ou d'une phase d'un traitement thermique) ou recuit durant lequel on observe une diminution de la densité des dislocations. Les dislocations sont en général introduites par déformation plastique (multiplication des dislocations par le mécanisme de Frank et Read). Ces dislocations se gênent mutuellement et donc augmentent la dureté (phénomène d'écrouissage).
Power managementPower management is a feature of some electrical appliances, especially copiers, computers, computer CPUs, computer GPUs and computer peripherals such as monitors and printers, that turns off the power or switches the system to a low-power state when inactive. In computing this is known as PC power management and is built around a standard called ACPI, this supersedes APM. All recent computers have ACPI support.
Central processing unitA central processing unit (CPU)—also called a central processor or main processor—is the most important processor in a given computer. Its electronic circuitry executes instructions of a computer program, such as arithmetic, logic, controlling, and input/output (I/O) operations. This role contrasts with that of external components, such as main memory and I/O circuitry, and specialized coprocessors such as graphics processing units (GPUs). The form, design, and implementation of CPUs have changed over time, but their fundamental operation remains almost unchanged.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Appareil électronique de faible puissanceUn appareil électronique de faible puissance est un appareil électronique qui a été conçu pour utiliser peu de puissance électrique, par exemple un ultraportable. Montre Les premières tentatives de réduction de la quantité d'énergie requise par un dispositif électronique ont été liées au développement de la montre-bracelet. Les montres électroniques ont besoin d'électricité comme source d'énergie, et certains mouvements mécaniques et mouvements électromécaniques hybrides ont également besoin d'électricité.
NanotechnologieLes nanosciences et nanotechnologies (d’après le grec , « nain »), ou NST, peuvent être définies au minimum comme l’ensemble des études et des procédés de fabrication et de manipulation de structures (physiques, chimiques ou biologiques), de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm), qui est l'unité la plus proche de la distance entre deux atomes. Les NST présentent plusieurs acceptions liées à la nature transversale de cette jeune discipline.
Méthode de Monte-CarloUne méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d'estimer la forme d'un signal ou la sensibilité d'un détecteur.
Contrôle de redondance cycliqueEn informatique et dans certains appareils numériques, un contrôle de redondance cyclique ou CRC (cyclic redundancy check) est un outil logiciel permettant de détecter des erreurs de transmission ou de transfert par ajout, combinaison et comparaison de données redondantes, obtenues grâce à une procédure de hachage. Ainsi, une erreur peut être signalée à l'utilisateur lors de la copie d'un support (disque dur, CD-Rom, DVD-Rom, clé USB) vers un autre support de sauvegarde.
Fonction OULa fonction OU ou OU inclusif (OR en anglais) est un opérateur logique de l'algèbre de Boole. À deux opérandes, qui peuvent avoir chacun la valeur VRAI ou FAUX, il associe un résultat qui a lui-même la valeur VRAI seulement si au moins un des deux opérandes a la valeur VRAI. La lampe s'allume si l'on appuie sur seulement « a » , ou sur seulement « b » , ou sur « a » et sur « b ». La fonction « OU » est caractérisée par des interrupteurs NO (normalement ouvert) montés en parallèle.
Intégration à très grande échelleL'intégration à très grande échelle (ou VLSI pour Very-Large-Scale Integration en anglais) est une technologie de circuit intégré (CI) dont la densité d'intégration permet de supporter plus de 100 000 composants électroniques sur une même puce. Elle a été réalisée pour la première fois dans les années 1980, dans le cadre du développement des technologies des semi-conducteurs et des communications. Les premières puces à semi-conducteurs supportaient un seul transistor chacune.
Déformation plastiqueLa théorie de la plasticité traite des déformations irréversibles indépendantes du temps, elle est basée sur des mécanismes physiques intervenant dans les métaux et alliages mettant en jeu des mouvements de dislocations (un réarrangement de la position relative des atomes, ou plus généralement des éléments constitutifs du matériau) dans un réseau cristallin sans influence de phénomènes visqueux ni présence de décohésion endommageant la matière. Une des caractéristiques de la plasticité est qu’elle n’apparaît qu’une fois un seuil de charge atteint.
Program analysisIn computer science, program analysis is the process of automatically analyzing the behavior of computer programs regarding a property such as correctness, robustness, safety and liveness. Program analysis focuses on two major areas: program optimization and program correctness. The first focuses on improving the program’s performance while reducing the resource usage while the latter focuses on ensuring that the program does what it is supposed to do.
Analyse statique de programmesEn informatique, la notion d’analyse statique de programmes couvre une variété de méthodes utilisées pour obtenir des informations sur le comportement d'un programme lors de son exécution sans réellement l'exécuter. C'est cette dernière restriction qui distingue l'analyse statique des analyses dynamiques (comme le débugage ou le profiling) qui s'attachent, elles, au suivi de l’exécution du programme. L’analyse statique est utilisée pour repérer des erreurs formelles de programmation ou de conception et pour déterminer la facilité ou la difficulté à maintenir le code.