Physique au-delà du modèle standardLa physique au-delà du modèle standard se rapporte aux développements théoriques de la physique des particules nécessaires pour expliquer les défaillances du modèle standard, telles que l'origine de la masse, le problème de la violation CP de l'interaction forte, les oscillations des neutrinos, l'asymétrie matière-antimatière, et la nature de la matière noire et de l'énergie noire.
Modèle standard de la physique des particulesvignette|upright=2.0|Modèle standard des particules élémentaires avec les trois générations de fermions (trois premières colonnes), les bosons de jauge (quatrième colonne) et le boson de Higgs (cinquième colonne). Le modèle standard de la physique des particules est une théorie qui concerne l'électromagnétisme, les interactions nucléaires faible et forte, et la classification de toutes les particules subatomiques connues. Elle a été développée pendant la deuxième moitié du , dans une initiative collaborative mondiale, sur les bases de la mécanique quantique.
Minimal Supersymmetric Standard ModelThe Minimal Supersymmetric Standard Model (MSSM) is an extension to the Standard Model that realizes supersymmetry. MSSM is the minimal supersymmetrical model as it considers only "the [minimum] number of new particle states and new interactions consistent with "Reality". Supersymmetry pairs bosons with fermions, so every Standard Model particle has a superpartner yet undiscovered. If discovered, such superparticles could be candidates for dark matter, and could provide evidence for grand unification or the viability of string theory.
SoustractionLa soustraction est l'une des opérations basiques de l'arithmétique. La soustraction combine deux ou plusieurs grandeurs du même type, appelées opérandes, pour donner un seul nombre, appelé la différence. Soustraire signifie diminuer en comptant. Soustraire b de a (calculer a − b) c'est trouver le nombre qui complèterait b pour donner a, c'est-à-dire le nombre d tel que b + d = a Le signe de soustraction est le symbole « − ». Par exemple : on lit 3 − 2 = 1 comme « trois moins deux font un ».
RenormalisationEn théorie quantique des champs (ou QFT), en mécanique statistique des champs, dans la théorie des structures géométriques autosimilaires, une renormalisation est une manière, variable dans sa nature, de prendre la limite du continu quand certaines constructions statistiques et quantiques deviennent indéfinies. La renormalisation détermine la façon de relier les paramètres de la théorie quand ces paramètres à grande échelle diffèrent de leur valeur à petite échelle.
Mathematical formulation of the Standard ModelThis article describes the mathematics of the Standard Model of particle physics, a gauge quantum field theory containing the internal symmetries of the unitary product group SU(3) × SU(2) × U(1). The theory is commonly viewed as describing the fundamental set of particles – the leptons, quarks, gauge bosons and the Higgs boson. The Standard Model is renormalizable and mathematically self-consistent, however despite having huge and continued successes in providing experimental predictions it does leave some unexplained phenomena.
Asymptotic safety in quantum gravityAsymptotic safety (sometimes also referred to as nonperturbative renormalizability) is a concept in quantum field theory which aims at finding a consistent and predictive quantum theory of the gravitational field. Its key ingredient is a nontrivial fixed point of the theory's renormalization group flow which controls the behavior of the coupling constants in the ultraviolet (UV) regime and renders physical quantities safe from divergences.
Signes plus et moinsLes signes plus (+) et moins (−) sont utilisés pour représenter les opérations d’addition et de soustraction dans une forme aujourd'hui reconnue internationalement. Ils peuvent avoir d’autres significations analogues, reconnues de manière généralement plus locale. Bien qu’aussi répandu que l’alphabet latin ou les chiffres indo-arabes leurs introduction est plus récente. Dans les hiéroglyphes égyptiens l’addition ressemble à une paire de jambes marchant dans la direction dans laquelle le texte a été écrit – dans le cas de l’Égypte antique, il était écrit de la droite vers la gauche.
Parallélisme (informatique)vignette|upright=1|Un des éléments de Blue Gene L cabinet, un des supercalculateurs massivement parallèles les plus rapides des années 2000. En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible.
Ordre des opérationsvignette|Ordre des opérations En mathématiques, la priorité des opérations ou ordre des opérations sont un ensemble de règles d'usage faisant consensus au sein de la communauté des mathématiciens. Elle précise l'ordre dans lequel les calculs doivent être effectués dans une expression complexe. Les règles de priorité sont : Les calculs entre parenthèses ou crochets sont prioritaires sur les calculs situés en dehors.
Simple random sampleIn statistics, a simple random sample (or SRS) is a subset of individuals (a sample) chosen from a larger set (a population) in which a subset of individuals are chosen randomly, all with the same probability. It is a process of selecting a sample in a random way. In SRS, each subset of k individuals has the same probability of being chosen for the sample as any other subset of k individuals. A simple random sample is an unbiased sampling technique. Simple random sampling is a basic type of sampling and can be a component of other more complex sampling methods.
Échantillonnage (statistiques)thumb|Exemple d'échantillonnage aléatoire En statistique, l'échantillonnage désigne les méthodes de sélection d'un sous-ensemble d'individus (un échantillon) à l'intérieur d'une population pour estimer les caractéristiques de l'ensemble de la population. Cette méthode présente plusieurs avantages : une étude restreinte sur une partie de la population, un moindre coût, une collecte des données plus rapide que si l'étude avait été réalisé sur l'ensemble de la population, la réalisation de contrôles destructifs Les résultats obtenus constituent un échantillon.
Processus (informatique)Un processus (en anglais, process), en informatique, est un programme en cours d'exécution par un ordinateur. De façon plus précise, il peut être défini comme : un ensemble d'instructions à exécuter, pouvant être dans la mémoire morte, mais le plus souvent chargé depuis la mémoire de masse vers la mémoire vive ; un espace d'adressage en mémoire vive pour stocker la pile, les données de travail ; des ressources permettant des entrées-sorties de données, comme des ports réseau.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Machine de TuringEn informatique théorique, une machine de Turing est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur. Ce modèle a été imaginé par Alan Turing en 1936, en vue de donner une définition précise au concept d’algorithme ou de « procédure mécanique ». Il est toujours largement utilisé en informatique théorique, en particulier dans les domaines de la complexité algorithmique et de la calculabilité.
Échantillonnage stratifiévignette|Vous prenez un échantillon aléatoire stratifié en divisant d'abord la population en groupes homogènes (semblables en eux-mêmes) (strates) qui sont distincts les uns des autres, c'est-à-dire. Le groupe 1 est différent du groupe 2. Ensuite, choisissez un EAS (échantillon aléatoire simple) distinct dans chaque strate et combinez ces EAS pour former l'échantillon complet. L'échantillonnage aléatoire stratifié est utilisé pour produire des échantillons non biaisés.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Machine à registres illimitésEn informatique, une machine à registres illimités ou URM (de l'anglais : Unlimited Register Machine) est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tout comme les machines de Turing et le lambda-calcul. Une URM est Turing-complète. Les registres de la machine sont représentés par : et peuvent contenir des éléments de . Un programme pour cette machine est représenté par toute suite de la forme : qui contient une suite finie d'instructions.
Neutron cross sectionIn nuclear physics, the concept of a neutron cross section is used to express the likelihood of interaction between an incident neutron and a target nucleus. The neutron cross section σ can be defined as the area in cm2 for which the number of neutron-nuclei reactions taking place is equal to the product of the number of incident neutrons that would pass through the area and the number of target nuclei. In conjunction with the neutron flux, it enables the calculation of the reaction rate, for example to derive the thermal power of a nuclear power plant.
Traitement massivement parallèleEn informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible.