Transformation de Fourierthumb|Portrait de Joseph Fourier. En mathématiques, plus précisément en analyse, la transformation de Fourier est une extension, pour les fonctions non périodiques, du développement en série de Fourier des fonctions périodiques. La transformation de Fourier associe à toute fonction intégrable définie sur R et à valeurs réelles ou complexes, une autre fonction sur R appelée transformée de Fourier dont la variable indépendante peut s'interpréter en physique comme la fréquence ou la pulsation.
Transformation de HilbertEn mathématiques et en traitement du signal, la transformation de Hilbert, ici notée , d'une fonction de la variable réelle est une transformation linéaire qui permet d'étendre un signal réel dans le domaine complexe, de sorte qu'il vérifie les équations de Cauchy-Riemann. La transformation de Hilbert tient son nom en honneur du mathématicien David Hilbert, mais fut principalement développée par le mathématicien anglais G. H. Hardy.
Transformation de Fourier discrèteEn mathématiques, la transformation de Fourier discrète (TFD) sert à traiter un signal numérique. Elle constitue un équivalent discret (c'est-à-dire pour un signal défini à partir d'un nombre fini d'échantillons) de la transformation de Fourier (continue) utilisée pour traiter un signal analogique. Plus précisément, la TFD est la représentation spectrale discrète dans le domaine des fréquences d'un signal échantillonné. La transformation de Fourier rapide est un algorithme particulier de calcul de la transformation de Fourier discrète.
Transformée de HadamardLa transformée de Hadamard (aussi connue sous le nom de « transformée de Walsh-Hadamard ») est un exemple d'une classe généralisée d'une transformée de Fourier. Elle est nommée d'après le mathématicien français Jacques Hadamard et effectue une opération linéaire et involutive avec une matrice orthogonale et symétrique sur 2 nombres réels (ou complexes, bien que les matrices utilisées possèdent des coefficients réels). Ces matrices sont des matrices de Hadamard.
Integral transformIn mathematics, an integral transform maps a function from its original function space into another function space via integration, where some of the properties of the original function might be more easily characterized and manipulated than in the original function space. The transformed function can generally be mapped back to the original function space using the inverse transform. An integral transform is any transform of the following form: The input of this transform is a function , and the output is another function .
Transformation de LaplaceEn mathématiques, la transformation de Laplace est une transformation intégrale qui à une fonction f — définie sur les réels positifs et à valeurs réelles — associe une nouvelle fonction F — définie sur les complexes et à valeurs complexes — dite transformée de Laplace de f. L'intérêt de la transformation de Laplace vient de la conjonction des deux faits suivants : De nombreuses opérations courantes sur la fonction originale f se traduisent par une opération algébrique sur la transformée F.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Convergence absolueEn mathématiques, une série numérique réelle ou complexe converge absolument si, par définition, la série des valeurs absolues (ou des modules) est convergente. Cette définition peut être étendue aux séries à valeurs dans un espace vectoriel normé et complet, soit un espace de Banach. Dans tous ces contextes, cette condition est suffisante pour assurer la convergence de la série elle-même. Par analogie, l'intégrale d'une fonction à valeurs réelles ou complexes converge absolument si, par définition, l'intégrale de la valeur absolue (ou du module) de la fonction est convergente (fonction dans L1).
Propagation des convictionsLa propagation des convictions (Belief Propagation ou BP en anglais), aussi connu comme la transmission de message somme-produit, est un algorithme à passage de message pour effectuer des inférences sur des modèles graphiques, tels que les réseaux Bayésiens et les champs de Markov. Il calcule la distribution marginale de chaque nœud « non-observé » conditionnée sur les nœuds observés.
Transformation en ZLa transformation en Z est un outil mathématique de l'automatique et du traitement du signal, qui est l'équivalent discret de la transformation de Laplace. Elle transforme un signal réel du domaine temporel en un signal représenté par une série complexe et appelé transformée en Z. Elle est utilisée entre autres pour le calcul de filtres numériques à réponse impulsionnelle infinie et en automatique pour modéliser des systèmes dynamiques de manière discrète.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Transformées en sinus et en cosinusEn mathématiques, les transformées de Fourier dites en sinus et en cosinus sont des formes de la transformée de Fourier qui n'utilisent pas de nombres complexes. Ce sont les formes utilisées à l'origine par Joseph Fourier et sont encore préférées dans certaines applications, comme le traitement du signal, les statistiques ou la résolution des équations aux dérivées partielles utilisant les méthodes spectrales.
Linear least squaresLinear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
Modèle linéaire généraliséEn statistiques, le modèle linéaire généralisé (MLG) souvent connu sous les initiales anglaises GLM est une généralisation souple de la régression linéaire. Le GLM généralise la régression linéaire en permettant au modèle linéaire d'être relié à la variable réponse via une fonction lien et en autorisant l'amplitude de la variance de chaque mesure d'être une fonction de sa valeur prévue, en fonction de la loi choisie.
Generalized least squaresIn statistics, generalized least squares (GLS) is a method used to estimate the unknown parameters in a linear regression model when there is a certain degree of correlation between the residuals in the regression model. Least squares and weighted least squares may need to be more statistically efficient and prevent misleading inferences. GLS was first described by Alexander Aitken in 1935. In standard linear regression models one observes data on n statistical units.
Test de convergenceEn mathématiques, les tests de convergence sont des méthodes de test de la convergence, de la convergence absolue ou de la divergence d'une série . Appliqués aux séries entières, ils donnent des moyens de déterminer leur rayon de convergence. Pour que la série converge, il est nécessaire que . Par conséquent, si cette limite est indéfinie ou non nulle, alors la série diverge. La condition n'est pas suffisante, et, si la limite des termes est nulle, on ne peut rien conclure. Toute série absolument convergente converge.
Transformation de Fourier rapideLa transformation de Fourier rapide (sigle anglais : FFT ou fast Fourier transform) est un algorithme de calcul de la transformation de Fourier discrète (TFD). Sa complexité varie en O(n log n) avec le nombre n de points, alors que la complexité de l’algorithme « naïf » s'exprime en O(n). Ainsi, pour n = , le temps de calcul de l'algorithme rapide peut être 100 fois plus court que le calcul utilisant la formule de définition de la TFD.
Convergence uniformeLa convergence uniforme d'une suite de fonctions est une forme de convergence plus exigeante que la convergence simple. La convergence devient uniforme quand toutes les suites avancent vers leur limite respective avec une sorte de « mouvement d'ensemble ». Dans le cas de fonctions numériques d'une variable, la notion prend une forme d'« évidence » géométrique : le graphe de la fonction f se « rapproche » de celui de la limite. Soient X un ensemble, (Y, d) un espace métrique, et A un sous-ensemble de X.