Machine à vecteurs de supportLes machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Tchervonenkis.
Radioactivitévignette|Pictogramme signalant la présence de matière radioactive. (☢) vignette|La maison de Georges Cuvier, au Jardin des plantes de Paris, où Henri Becquerel découvrit la radioactivité en 1896. La radioactivité est le phénomène physique par lequel des noyaux atomiques instables (dits radionucléides ou radioisotopes) se transforment spontanément en d'autres atomes (désintégration) en émettant simultanément des particules de matière (électrons, noyaux d'hélium, neutrons) et de l'énergie (photons et énergie cinétique).
Chaîne de désintégrationvignette|Différents modes de désintégration radioactive : radioactivités α, β et β, capture électronique (ε), émission de neutron (n) et émission de proton (p). N et Z sont le nombre de neutrons et le nombre de protons des noyaux considérés. Une chaîne de désintégration, ou chaîne radioactive, ou série radioactive, ou désintégration en cascade, ou encore filiation radioactive, est une succession de désintégrations d'un radioisotope jusqu'à un élément chimique dont le noyau atomique est stable (par conséquent non radioactif), généralement le plomb (Pb), élément le plus lourd possédant des isotopes stables.
Linear separabilityIn Euclidean geometry, linear separability is a property of two sets of points. This is most easily visualized in two dimensions (the Euclidean plane) by thinking of one set of points as being colored blue and the other set of points as being colored red. These two sets are linearly separable if there exists at least one line in the plane with all of the blue points on one side of the line and all the red points on the other side. This idea immediately generalizes to higher-dimensional Euclidean spaces if the line is replaced by a hyperplane.
Radioactivité βLa radioactivité β, radioactivité bêta ou émission bêta (symbole β) est, à l'origine, un type de désintégration radioactive dans laquelle une particule bêta (un électron ou un positon) est émise. On parle de désintégration bêta moins (β) ou bêta plus (β) selon qu'il s'agit de l'émission d'un électron (particule chargée négativement) ou d'un positon (particule chargée positivement). L'émission β est notamment ce qui permet la conversion d'un neutron en proton, par exemple dans les cas de transmutation comme du tritium (T) qui se transforme en hélium 3 (He) : ⟶ + e + .
Margin (machine learning)In machine learning the margin of a single data point is defined to be the distance from the data point to a decision boundary. Note that there are many distances and decision boundaries that may be appropriate for certain datasets and goals. A margin classifier is a classifier that explicitly utilizes the margin of each example while learning a classifier. There are theoretical justifications (based on the VC dimension) as to why maximizing the margin (under some suitable constraints) may be beneficial for machine learning and statistical inferences algorithms.
Double désintégration bêtaLe processus de double désintégration bêta est un mode de décroissance nucléaire, qui consiste en deux désintégrations bêta simultanées dans un même noyau atomique. Il résulte généralement de ce processus l'émission de deux neutrinos, mais certaines théories prédisent une double désintégration sans émission de neutrinos, bien qu'un tel évènement n'ait jamais été observé. La double désintégration bêta avec émission de neutrinos (ββ2ν) est un mode de décroissance autorisé par le modèle standard.
Classifieur linéaireEn apprentissage automatique, les classifieurs linéaires sont une famille d'algorithmes de classement statistique. Le rôle d'un classifieur est de classer dans des groupes (des classes) les échantillons qui ont des propriétés similaires, mesurées sur des observations. Un classifieur linéaire est un type particulier de classifieur, qui calcule la décision par combinaison linéaire des échantillons. « Classifieur linéaire » est une traduction de l'anglais linear classifier.
Classification en classes multiplesIn machine learning and statistical classification, multiclass classification or multinomial classification is the problem of classifying instances into one of three or more classes (classifying instances into one of two classes is called binary classification). While many classification algorithms (notably multinomial logistic regression) naturally permit the use of more than two classes, some are by nature binary algorithms; these can, however, be turned into multinomial classifiers by a variety of strategies.
Decision boundaryNOTOC In a statistical-classification problem with two classes, a decision boundary or decision surface is a hypersurface that partitions the underlying vector space into two sets, one for each class. The classifier will classify all the points on one side of the decision boundary as belonging to one class and all those on the other side as belonging to the other class. A decision boundary is the region of a problem space in which the output label of a classifier is ambiguous.
Désintégration du protonEn physique des particules, la désintégration du proton désigne un mode hypothétique de décroissance radioactive dans laquelle le proton se désintègre en des particules subatomiques plus légères, comme le pion neutre et le positron. Il n'existe actuellement aucune preuve expérimentale indiquant que la désintégration du proton se produise ; ce qui place la demi-vie théorique du proton à une valeur supérieure à 10 années. Dans le modèle standard, les protons (un type de baryon), sont théoriquement stables parce que le nombre baryonique est censé se conserver.
Capacité thermique massiqueLa capacité thermique massique (symbole usuel c), anciennement appelée chaleur massique ou chaleur spécifique, est la capacité thermique d'un matériau rapportée à sa masse. C'est une grandeur qui reflète la capacité d'un matériau à accumuler de l'énergie sous forme thermique, pour une masse donnée, quand sa température augmente. Une grande capacité thermique signifie qu'une grande quantité d'énergie peut être stockée, moyennant une augmentation relativement faible de la température.
Particle decayIn particle physics, particle decay is the spontaneous process of one unstable subatomic particle transforming into multiple other particles. The particles created in this process (the final state) must each be less massive than the original, although the total invariant mass of the system must be conserved. A particle is unstable if there is at least one allowed final state that it can decay into. Unstable particles will often have multiple ways of decaying, each with its own associated probability.
Capacité thermiqueLa capacité thermique (anciennement capacité calorifique) d'un corps est une grandeur qui mesure la chaleur qu'il faut lui transférer pour augmenter sa température d'un kelvin. Inversement, elle permet de quantifier la possibilité qu'a ce corps d'absorber ou de restituer de la chaleur au cours d'une transformation pendant laquelle sa température varie. Elle s'exprime en joules par kelvin (). C'est une grandeur extensive : plus la quantité de matière est importante, plus la capacité thermique est grande.
Jeu de donnéesvignette|Représentation du jeu de données Iris sur ses quatre dimensions|420x420px Un jeu de données (en anglais dataset ou data set) est un ensemble de valeurs « organisées » ou « contextualisées » (alias « données »), où chaque valeur est associée à une variable (ou attribut) et à une observation. Une variable décrit l'ensemble des valeurs décrivant le même attribut et une observation contient l'ensemble des valeurs décrivant les attributs d'une unité (ou individu statistique).
Décroissance exponentiellethumb|La décharge d'un condensateur est à décroissance exponentielle. La décroissance exponentielle d'une quantité est sa diminution au fil du temps selon une loi exponentielle. On l'observe quand la dérivée par rapport au temps de cette quantité (c'est-à-dire son taux de variation instantané) est négative et proportionnelle à la quantité elle-même. Dans la langue courante on emploie souvent, mais improprement, le terme « décroissance exponentielle » pour qualifier une diminution simplement décélérée, quand la valeur absolue de la dérivée est elle-même décroissante.
Algorithme d'apprentissage incrémentalEn informatique, un algorithme d'apprentissage incrémental ou incrémentiel est un algorithme d'apprentissage qui a la particularité d'être online, c'est-à-dire qui apprend à partir de données reçues au fur et à mesure du temps. À chaque incrément il reçoit des données d'entrées et un résultat, l'algorithme calcule alors une amélioration du calcul fait pour prédire le résultat à partir des données d'entrées.
Mean squared prediction errorIn statistics the mean squared prediction error (MSPE), also known as mean squared error of the predictions, of a smoothing, curve fitting, or regression procedure is the expected value of the squared prediction errors (PE), the square difference between the fitted values implied by the predictive function and the values of the (unobservable) true value g. It is an inverse measure of the explanatory power of and can be used in the process of cross-validation of an estimated model.
Astuce du noyauEn apprentissage automatique, l'astuce du noyau, ou kernel trick en anglais, est une méthode qui permet d'utiliser un classifieur linéaire pour résoudre un problème non linéaire. L'idée est de transformer l'espace de représentation des données d'entrées en un espace de plus grande dimension, où un classifieur linéaire peut être utilisé et obtenir de bonnes performances. La discrimination linéaire dans l'espace de grande dimension (appelé aussi espace de redescription) est équivalente à une discrimination non linéaire dans l'espace d'origine.
Jeux d'entrainement, de validation et de testEn apprentissage automatique, une tâche courante est l'étude et la construction d'algorithmes qui peuvent apprendre et faire des prédictions sur les données. De tels algorithmes fonctionnent en faisant des prédictions ou des décisions basées sur les données, en construisant un modèle mathématique à partir des données d'entrée. Ces données d'entrée utilisées pour construire le modèle sont généralement divisées en plusieurs jeux de données .