Boson de Higgsthumb|De gauche à droite : Kibble, Guralnik, Hagen, Englert et Brout, en 2010. Le boson de Higgs ou boson BEH, est une particule élémentaire dont l'existence, postulée indépendamment en juin 1964 par François Englert et Robert Brout, par Peter Higgs, en août, et par Gerald Guralnik, Carl Richard Hagen et Thomas Kibble, permet d'expliquer la brisure de l'interaction unifiée électrofaible (EWSB, pour l'anglais ) en deux interactions par l'intermédiaire du mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble et d'expliquer ainsi pourquoi certaines particules ont une masse et d'autres n'en ont pas.
Modèle standard de la physique des particulesvignette|upright=2.0|Modèle standard des particules élémentaires avec les trois générations de fermions (trois premières colonnes), les bosons de jauge (quatrième colonne) et le boson de Higgs (cinquième colonne). Le modèle standard de la physique des particules est une théorie qui concerne l'électromagnétisme, les interactions nucléaires faible et forte, et la classification de toutes les particules subatomiques connues. Elle a été développée pendant la deuxième moitié du , dans une initiative collaborative mondiale, sur les bases de la mécanique quantique.
Baryogénèsevignette|upright=2|La baryogénèse se serait produite après l'inflation (en beige), mais bien avant la première seconde suivant le Big Bang. Elle se situerait dans les parties jaune-orange du schéma ci-dessus. En cosmologie, le terme baryogénèse désigne une ou des périodes de formation des baryons au sein de l'univers primordial. Ainsi, d'après la théorie du Big Bang, lors des premiers instants de l'Univers, ce dernier était trop chaud pour permettre l'existence de la matière.
Mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-KibbleEn physique des particules le mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble (BEHHGK, prononcé « Beck »), souvent abrégé (au détriment de certains auteurs) mécanisme de Brout-Englert-Higgs, voire mécanisme de Higgs, introduit indépendamment par François Englert et Robert Brout, par Peter Higgs, et par Gerald Guralnik, Carl Richard Hagen et Thomas Kibble en 1964, décrit un processus par lequel une symétrie locale de la théorie peut être brisée spontanément, en introduisant un champ scalaire de valeur
Mathematical formulation of the Standard ModelThis article describes the mathematics of the Standard Model of particle physics, a gauge quantum field theory containing the internal symmetries of the unitary product group SU(3) × SU(2) × U(1). The theory is commonly viewed as describing the fundamental set of particles – the leptons, quarks, gauge bosons and the Higgs boson. The Standard Model is renormalizable and mathematically self-consistent, however despite having huge and continued successes in providing experimental predictions it does leave some unexplained phenomena.
Diffusion des ondesLa diffusion est le phénomène par lequel un rayonnement, comme la lumière, le son ou un faisceau de particules, est dévié dans diverses directions par une interaction avec d'autres objets. La diffusion peut être isotrope, c'est-à-dire répartie uniformément dans toutes les directions, ou anisotrope. En particulier, la fraction de l'onde incidente qui est retournée dans la direction d'où elle provient est appelée rétrodiffusion (backscatter en anglais). La diffusion peut s'effectuer avec ou sans variation de fréquence.
Weak chargeIn nuclear physics and atomic physics, weak charge refers to the Standard Model weak interaction coupling of a particle to the Z boson. For example, for any given nuclear isotope, the total weak charge is approximately −0.99 per neutron, and +0.07 per proton. It also shows an effect of parity violation during electron scattering. This same term is sometimes also used to refer to other, distinct quantities, such as weak isospin, weak hypercharge, or the vector coupling of a fermion to the Z boson (i.e.
Grande unificationEn physique théorique, une théorie de grande unification, encore appelée GUT (pour Grand Unified Theory en anglais) est un modèle de la physique des particules dans lequel les trois interactions de jauge du modèle standard (électromagnétique, nucléaire faible et nucléaire forte) se fusionnent en une seule à hautes énergies. Cette interaction unifiée est caractérisée par une symétrie de jauge plus grande et donc plusieurs vecteurs de force, mais une seule constante de couplage unifiée.
Superfluid vacuum theorySuperfluid vacuum theory (SVT), sometimes known as the BEC vacuum theory, is an approach in theoretical physics and quantum mechanics where the fundamental physical vacuum (non-removable background) is considered as a superfluid or as a Bose–Einstein condensate (BEC). The microscopic structure of this physical vacuum is currently unknown and is a subject of intensive studies in SVT.
Diffusion BrillouinLa 'diffusion Brillouin' est la diffusion inélastique de la lumière par les ondes acoustiques d'un milieu. Dans une expérience de diffusion Brillouin, on illumine un milieu à l'aide d'un faisceau laser et on détecte la lumière diffusée à une fréquence légèrement différente. Les décalages en fréquence observés sont de l'ordre de 1 à 200 GHz environ. La mesure de ce décalage permet de remonter à certaines propriétés du milieu. Cet effet a été prédit en 1914 par Léon Brillouin.
Diffusion RamanLa diffusion Raman, ou effet Raman, est un phénomène optique découvert indépendamment en 1928 par les physiciens Chandrashekhara Venkata Râman et Leonid Mandelstam. Cet effet consiste en la diffusion inélastique d'un photon, c'est-à-dire le phénomène physique par lequel un milieu peut modifier légèrement la fréquence de la lumière qui y circule. Ce décalage en fréquence correspond à un échange d'énergie entre le rayon lumineux et le milieu. Cet effet physique fut prédit par Adolf Smekal en 1923.
Validity (statistics)Validity is the main extent to which a concept, conclusion or measurement is well-founded and likely corresponds accurately to the real world. The word "valid" is derived from the Latin validus, meaning strong. The validity of a measurement tool (for example, a test in education) is the degree to which the tool measures what it claims to measure. Validity is based on the strength of a collection of different types of evidence (e.g. face validity, construct validity, etc.) described in greater detail below.
Statistiques non paramétriquesLa statistique non paramétrique est un domaine de la statistique qui ne repose pas sur des familles de loi de probabilité paramétriques. Les méthodes non paramétriques pour la régression comprennent les histogrammes, les méthodes d'estimation par noyau, les splines et les décompositions dans des dictionnaires de filtres (par exemple décomposition en ondelettes). Bien que le nom de non paramétriques soit donné à ces méthodes, elles reposent en vérité sur l'estimation de paramètres.
Validité externeLa validité externe d'une expérience scientifique désigne la capacité de ses conclusions à être généralisées à des contextes non-expérimentaux. Une expérience a une grande validité externe dès lors que ses résultats permettent de comprendre des phénomènes hors du laboratoire. À l'inverse, elle manque de validité externe si les conclusions que l'on peut en tirer ne sont valables que pour des conditions expérimentales restrictives.
Criterion validityIn psychometrics, criterion validity, or criterion-related validity, is the extent to which an operationalization of a construct, such as a test, relates to, or predicts, a theoretical representation of the construct—the criterion. Criterion validity is often divided into concurrent and predictive validity based on the timing of measurement for the "predictor" and outcome. Concurrent validity refers to a comparison between the measure in question and an outcome assessed at the same time.
CinématiqueEn physique, la cinématique (du grec kinêma, le mouvement) est l'étude des mouvements indépendamment des causes qui les produisent, ou, plus exactement, l'étude de tous les mouvements possibles. À côté de la notion d'espace qui est l'objet de la géométrie, la cinématique introduit la notion de temps. À ne pas confondre avec la , un terme plus général qui concerne la vitesse et les mécanismes d'une grande variété de processus ; en mécanique, cinétique est utilisé comme adjectif pour qualifier deux grandeurs impliquant aussi la masse : le moment cinétique et l'énergie cinétique.
Théorie effectiveLa théorie quantique des champs fournit une procédure systématique permettant de calculer de façon perturbative toutes les observables d'une théorie (c'est-à-dire les fonctions de corrélation entre les différents opérateurs quantifiés de la théorie) étant donné son Lagrangien microscopique. Les degrés de liberté de la théorie étant classés selon leur masse, il apparaît que pour des énergies d'observation faibles, la contribution dominante aux observables provient des excitations les plus légères (on dit que seuls ces degrés de liberté sont visibles) et que la contribution des excitations plus massives joue le rôle de correction au résultat fourni par les excitations visibles.
Present valueIn economics and finance, present value (PV), also known as present discounted value, is the value of an expected income stream determined as of the date of valuation. The present value is usually less than the future value because money has interest-earning potential, a characteristic referred to as the time value of money, except during times of zero- or negative interest rates, when the present value will be equal or more than the future value. Time value can be described with the simplified phrase, "A dollar today is worth more than a dollar tomorrow".
Parametric equationIn mathematics, a parametric equation defines a group of quantities as functions of one or more independent variables called parameters. Parametric equations are commonly used to express the coordinates of the points that make up a geometric object such as a curve or surface, called parametric curve and parametric surface, respectively. In such cases, the equations are collectively called a parametric representation, or parametric system, or parameterization (alternatively spelled as parametrisation) of the object.
Estimateur (statistique)En statistique, un estimateur est une fonction permettant d'estimer un moment d'une loi de probabilité (comme son espérance ou sa variance). Il peut par exemple servir à estimer certaines caractéristiques d'une population totale à partir de données obtenues sur un échantillon comme lors d'un sondage. La définition et l'utilisation de tels estimateurs constitue la statistique inférentielle. La qualité des estimateurs s'exprime par leur convergence, leur biais, leur efficacité et leur robustesse.