Régularisation (mathématiques)vignette|Les courbes bleues et vertes correspondent à deux modèles differents, tous les deux étant des solutions possibles du problème consistant à décrire les coordonnées de tous les points rouges. L'application d'une régularisation favorise le modèle moins complexe correspondant à la courbe verte. Dans le domaine des mathématiques et des statistiques, et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème, s'il est mal posé ou pour éviter le surapprentissage.
Acquisition compriméeL'acquisition comprimée (en anglais compressed sensing) est une technique permettant de trouver la solution la plus parcimonieuse d'un système linéaire sous-déterminé. Elle englobe non seulement les moyens pour trouver cette solution mais aussi les systèmes linéaires qui sont admissibles. En anglais, elle porte le nom de Compressive sensing, Compressed Sampling ou Sparse Sampling.
Total variation denoisingIn signal processing, particularly , total variation denoising, also known as total variation regularization or total variation filtering, is a noise removal process (filter). It is based on the principle that signals with excessive and possibly spurious detail have high total variation, that is, the integral of the absolute is high. According to this principle, reducing the total variation of the signal—subject to it being a close match to the original signal—removes unwanted detail whilst preserving important details such as .
DérivéeEn mathématiques, la dérivée d'une fonction d'une variable réelle mesure l'ampleur du changement de la valeur de la fonction (valeur de sortie) par rapport à un petit changement de son argument (valeur d'entrée). Les calculs de dérivées sont un outil fondamental du calcul infinitésimal. Par exemple, la dérivée de la position d'un objet en mouvement par rapport au temps est la vitesse (instantanée) de l'objet. La dérivée d'une fonction est une fonction qui, à tout nombre pour lequel admet un nombre dérivé, associe ce nombre dérivé.
Lasso (statistiques)En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso. Le nom est un acronyme anglais : Least Absolute Shrinkage and Selection Operator. Bien que cette méthode fut utilisée à l'origine pour des modèles utilisant l'estimateur usuel des moindres carrés, la pénalisation lasso s'étend facilement à de nombreux modèles statistiques tels que les modèles linéaires généralisés, les modèles à risque proportionnel, et les M-estimateurs.
Fréchet derivativeIn mathematics, the Fréchet derivative is a derivative defined on normed spaces. Named after Maurice Fréchet, it is commonly used to generalize the derivative of a real-valued function of a single real variable to the case of a vector-valued function of multiple real variables, and to define the functional derivative used widely in the calculus of variations. Generally, it extends the idea of the derivative from real-valued functions of one real variable to functions on normed spaces.
Generalizations of the derivativeIn mathematics, the derivative is a fundamental construction of differential calculus and admits many possible generalizations within the fields of mathematical analysis, combinatorics, algebra, geometry, etc. The Fréchet derivative defines the derivative for general normed vector spaces . Briefly, a function , an open subset of , is called Fréchet differentiable at if there exists a bounded linear operator such that Functions are defined as being differentiable in some open neighbourhood of , rather than at individual points, as not doing so tends to lead to many pathological counterexamples.
Gateaux derivativeIn mathematics, the Gateaux differential or Gateaux derivative is a generalization of the concept of directional derivative in differential calculus. Named after René Gateaux, a French mathematician who died at age 25 in World War I, it is defined for functions between locally convex topological vector spaces such as Banach spaces. Like the Fréchet derivative on a Banach space, the Gateaux differential is often used to formalize the functional derivative commonly used in the calculus of variations and physics.
Sélection de caractéristiqueLa sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. Extraction de caractéristique Catégorie:Apprentissage
Edge-preserving smoothingEdge-preserving smoothing or edge-preserving filtering is an technique that smooths away noise or textures while retaining sharp edges. Examples are the median, bilateral, guided, anisotropic diffusion, and Kuwahara filters. In many applications, e.g., medical or satellite imaging, the edges are key features and thus must be preserved sharp and undistorted in smoothing/denoising. Edge-preserving filters are designed to automatically limit the smoothing at “edges” in images measured, e.g., by high gradient magnitudes.
Dérivée partielleEn mathématiques, la dérivée partielle d'une fonction de plusieurs variables est sa dérivée par rapport à l'une de ses variables, les autres étant gardées constantes. C'est une notion de base de l'analyse en dimension , de la géométrie différentielle et de l'analyse vectorielle. La dérivée partielle de la fonction par rapport à la variable est souvent notée . Si est une fonction de et sont les accroissements infinitésimaux de respectivement, alors l'accroissement infinitésimal correspondant de est : Cette expression est la « différentielle totale » de , chaque terme dans la somme étant une « différentielle partielle » de .
Dérivée covarianteEn géométrie différentielle, la dérivée covariante est un outil destiné à définir la dérivée d'un champ de vecteurs sur une variété. Dans le cas où la dérivée covariante existe, il n'existe pas de différence entre la dérivée covariante et la connexion, à part la manière dont elles sont introduites. (Cela est faux quand la dérivée covariante n'existe pas en revanche ).
Théorème de l'application conformeEn mathématiques, et plus précisément en analyse complexe, le théorème de l'application conforme, dû à Bernhard Riemann, assure que toutes les parties ouvertes simplement connexes du plan complexe qui ne sont ni vides ni égales au plan tout entier sont conformes entre elles. Le théorème fut énoncé (sous l'hypothèse plus forte d'une frontière formés d'arcs différentiables) par Bernhard Riemann dans sa thèse, en 1851.
Théorème de SchwarzLe théorème de Schwarz, de Clairaut ou de Young est un théorème d'analyse portant sur les dérivées partielles secondes d'une fonction de plusieurs variables. Il apparaît pour la première fois dans un cours de calcul différentiel donné par Weierstrass en 1861 auquel assistait alors Hermann Schwarz à Berlin. La symétrie de la hessienne signifie que le résultat d'une dérivation partielle à l'ordre 2 par rapport à deux variables ne dépend pas de l'ordre dans lequel se fait la dérivation par rapport à ces deux variables : Ce théorème est parfois appelé par les anglophones (théorème de Young), nom qui désigne également une extension aux dérivées d'ordre supérieur.
Régularité par morceauxEn mathématiques, les énoncés de certaines propriétés d'analyse et résultats de convergence se réfèrent à des fonctions vérifiant des hypothèses telles que continues par morceaux, dérivables par morceaux Ces fonctions sont regroupées par classes de régularité qui sont autant d'espaces vectoriels emboîtés, appelés « classe C par morceaux » et notés C. vignette|Cette fonction n'est pas continue sur R. En revanche, elle y est continue par morceaux. Une fonction f est continue par morceaux sur le segment [a, b] s’il existe une subdivision σ : a = a0 < .
Fonction signeLa fonction signe, ou signum en latin, souvent représentée sgn dans les expressions, est une fonction mathématique qui extrait le signe d'un nombre réel, c'est-à-dire que l' d'un nombre par cette application est 1 si le nombre est strictement positif, 0 si le nombre est nul, et -1 si le nombre est strictement négatif : La fonction signe peut également s’écrire : On peut aussi la construire en résultat d'une limite, notamment en jouant avec les propriétés de certaines fonctions hyperboliques.
Détection de contoursEn et en vision par ordinateur, on appelle détection de contours les procédés permettant de repérer les points d'une qui correspondent à un changement brutal de l'intensité lumineuse. Ces changements de propriétés de l' indiquent en général des éléments importants de structure dans l'objet représenté. Ces éléments incluent des discontinuités dans la profondeur, dans l'orientation d'une surface, dans les propriétés d'un matériau et dans l'éclairage d'une scène.