Total variation denoisingIn signal processing, particularly , total variation denoising, also known as total variation regularization or total variation filtering, is a noise removal process (filter). It is based on the principle that signals with excessive and possibly spurious detail have high total variation, that is, the integral of the absolute is high. According to this principle, reducing the total variation of the signal—subject to it being a close match to the original signal—removes unwanted detail whilst preserving important details such as .
Phase-contrast X-ray imagingPhase-contrast X-ray imaging or phase-sensitive X-ray imaging is a general term for different technical methods that use information concerning changes in the phase of an X-ray beam that passes through an object in order to create its images. Standard X-ray imaging techniques like radiography or computed tomography (CT) rely on a decrease of the X-ray beam's intensity (attenuation) when traversing the sample, which can be measured directly with the assistance of an X-ray detector.
Ridge regressionRidge regression is a method of estimating the coefficients of multiple-regression models in scenarios where the independent variables are highly correlated. It has been used in many fields including econometrics, chemistry, and engineering. Also known as Tikhonov regularization, named for Andrey Tikhonov, it is a method of regularization of ill-posed problems. It is particularly useful to mitigate the problem of multicollinearity in linear regression, which commonly occurs in models with large numbers of parameters.
Variation totale d'une fonctionEn mathématiques, la variation totale est liée à la structure (locale ou globale) du codomaine d'une fonction. Pour une fonction continue à valeurs réelles f, définie sur un intervalle [a, b] ⊂ R, sa variation totale sur l'intervalle de définition est une mesure de la longueur d'arc de la projection sur l'axe des ordonnées de la courbe paramétrée (x, f(x)), pour x ∈ [a, b]. L'idée de variation totale pour les fonctions d'une variable réelle a d'abord été introduite par Camille Jordan, afin de démontrer un théorème de convergence pour les séries de Fourier de fonctions discontinues périodiques à variation bornée.
Régularisation (mathématiques)vignette|Les courbes bleues et vertes correspondent à deux modèles differents, tous les deux étant des solutions possibles du problème consistant à décrire les coordonnées de tous les points rouges. L'application d'une régularisation favorise le modèle moins complexe correspondant à la courbe verte. Dans le domaine des mathématiques et des statistiques, et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème, s'il est mal posé ou pour éviter le surapprentissage.
Phase-contrast imagingPhase-contrast imaging is a method of that has a range of different applications. It measures differences in the refractive index of different materials to differentiate between structures under analysis. In conventional light microscopy, phase contrast can be employed to distinguish between structures of similar transparency, and to examine crystals on the basis of their double refraction. This has uses in biological, medical and geological science.
Regularized least squaresRegularized least squares (RLS) is a family of methods for solving the least-squares problem while using regularization to further constrain the resulting solution. RLS is used for two main reasons. The first comes up when the number of variables in the linear system exceeds the number of observations. In such settings, the ordinary least-squares problem is ill-posed and is therefore impossible to fit because the associated optimization problem has infinitely many solutions.
Magnitude apparentevignette|Image de la nébuleuse de la Tarentule prise par le télescope VISTA de l'ESO. La nébuleuse a une magnitude apparente de 8 et est entourée d'objets célestes aux magnitudes diverses. La magnitude apparente est une mesure de l'irradiance d'un objet céleste observé depuis la Terre. Utilisée quasi exclusivement en astronomie, la magnitude correspondait historiquement à un classement des étoiles, les plus brillantes étant de « première magnitude », les deuxièmes et troisièmes magnitudes étant plus faibles, jusqu'à la sixième magnitude, étoiles à peine visibles à l'œil nu.
Magnitude (astronomie)vignette|Sources lumineuses de différentes magnitudes. En astronomie, la magnitude est une mesure sans unité de la luminosité d'un objet céleste dans une bande de longueurs d'onde définie, souvent dans le spectre visible ou infrarouge. Une détermination imprécise mais systématique de la grandeur des objets est introduite dès le par Hipparque. L'échelle est logarithmique et définie de telle sorte que chaque pas d'une grandeur change la luminosité d'un facteur 2,5.
Elastic net regularizationIn statistics and, in particular, in the fitting of linear or logistic regression models, the elastic net is a regularized regression method that linearly combines the L1 and L2 penalties of the lasso and ridge methods. The elastic net method overcomes the limitations of the LASSO (least absolute shrinkage and selection operator) method which uses a penalty function based on Use of this penalty function has several limitations. For example, in the "large p, small n" case (high-dimensional data with few examples), the LASSO selects at most n variables before it saturates.
Microscope à contraste de phasethumb|Photographie d'un cellule épithéliale de joue vue par un Microscope à contraste de phase Le microscope à contraste de phase est un microscope qui exploite les changements de phase d'une onde lumineuse traversant un échantillon. Cet instrument fut développé par le physicien hollandais Frederik Zernike dans les années 1930, ce qui lui valut le prix Nobel de physique en 1953. Emilie Bleeker, physicienne reconnue pour le développement d'instruments, est la première à mettre le microscope à contraste de phase en utilisation.
Magnitude absolueEn astronomie, la magnitude absolue indique la luminosité intrinsèque d'un objet céleste, au contraire de la magnitude apparente qui dépend de la distance à l'astre et de l'extinction dans la ligne de visée. Pour un objet situé à l'extérieur du Système solaire, elle est définie par la magnitude apparente qu'aurait cet astre s'il était placé à une distance de référence fixée à 10 parsecs (environ 32,6 années-lumière) en l'absence d'extinction interstellaire.
Quantitative phase-contrast microscopyFORCETOC Quantitative phase contrast microscopy or quantitative phase imaging are the collective names for a group of microscopy methods that quantify the phase shift that occurs when light waves pass through a more optically dense object. Translucent objects, like a living human cell, absorb and scatter small amounts of light. This makes translucent objects much easier to observe in ordinary light microscopes. Such objects do, however, induce a phase shift that can be observed using a phase contrast microscope.
Magnitude limite visuelleEn astronomie, la magnitude limite visuelle désigne la magnitude limite, en lumière visible, que peut observer un instrument optique (œil, lunette, télescope, ...). L'œil humain permet de détecter un flux de 50 à 150 photons par seconde de lumière verte, couleur à laquelle les bâtonnets sont le plus sensibles. Ce flux lumineux correspond à une étoile de magnitude 8,5. L’œil humain pourrait donc voir des étoiles de cette magnitude dans le ciel.
Magnitude photographiqueAvant l'apparition des photomètres qui mesurent précisément la luminosité des objets astronomiques, la magnitude apparente d'un objet était obtenue en prenant une photo de celui-ci avec un appareil photographique. Ces images, faites sur des pellicules photographiques ou des plaques orthochromatiques, étaient plus sensibles à l'extrémité bleue du spectre visuel que l'œil humain ou les photomètres modernes.
Fonction à variation bornéeEn analyse, une fonction est dite à variation bornée quand elle vérifie une certaine condition de régularité. Cette condition a été introduite en 1881 par le mathématicien Camille Jordan pour étendre le théorème de Dirichlet sur la convergence des séries de Fourier. Soit f une fonction définie sur un ensemble totalement ordonné T et à valeurs dans un espace métrique (E, d). Pour toute subdivision σ = (x, x, ...
Analyse numériqueL’analyse numérique est une discipline à l'interface des mathématiques et de l'informatique. Elle s’intéresse tant aux fondements qu’à la mise en pratique des méthodes permettant de résoudre, par des calculs purement numériques, des problèmes d’analyse mathématique. Plus formellement, l’analyse numérique est l’étude des algorithmes permettant de résoudre numériquement par discrétisation les problèmes de mathématiques continues (distinguées des mathématiques discrètes).
Calcul des variationsLe calcul des variations (ou calcul variationnel) est, en mathématiques et plus précisément en analyse fonctionnelle, un ensemble de méthodes permettant de minimiser une fonctionnelle. Celle-ci, qui est à valeurs réelles, dépend d'une fonction qui est l'inconnue du problème. Il s'agit donc d'un problème de minimisation dans un espace fonctionnel de dimension infinie. Le calcul des variations s'est développé depuis le milieu du jusqu'aujourd'hui ; son dernier avatar est la théorie de la commande optimale, datant de la fin des années 1950.
Méthode d'OtsuEn vision par ordinateur et , la méthode d'Otsu est utilisée pour effectuer un automatique à partir de la forme de l', ou la réduction d'une image à niveaux de gris en une image binaire. L'algorithme suppose alors que l'image à binariser ne contient que deux classes de pixels, (c'est-à-dire le premier plan et l'arrière-plan) puis calcule le seuil optimal qui sépare ces deux classes afin que leur variance intra-classe soit minimale. L'extension de la méthode originale pour faire du seuillage à plusieurs niveaux est appelée Multi Otsu method.
Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.