Degré de liberté (statistiques)En statistiques le degré de liberté (ddl) désigne le nombre de variables aléatoires qui ne peuvent être déterminées ou fixées par une équation (notamment les équations des tests statistiques). Une autre définition est : . Le degré de liberté est égal au nombre d'observations moins le nombre de relations entre ces observations : on pourrait remplacer l'expression « nombre de relations » par « nombre de paramètres à estimer ». Supposons un ensemble de n variables aléatoires, toutes de même loi et indépendantes X,.
Spline cubique d'HermiteOn appelle spline cubique d'Hermite une spline de degré trois, nommée ainsi en hommage à Charles Hermite, permettant de construire un polynôme de degré minimal (le polynôme doit avoir au minimum quatre degrés de liberté et être donc de degré 3) interpolant une fonction en deux points avec ses tangentes. Chaque polynôme se trouve sous la forme suivante : thumb|Les quatre polynômes de base avec ce qui donne le polynôme suivant : Sous cette écriture, il est possible de voir que le polynôme p vérifie : La courbe est déterminée par la position des points et des tangentes.
Erreur quadratique moyenneEn statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (mean squared error (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
Minimum mean square errorIn statistics and signal processing, a minimum mean square error (MMSE) estimator is an estimation method which minimizes the mean square error (MSE), which is a common measure of estimator quality, of the fitted values of a dependent variable. In the Bayesian setting, the term MMSE more specifically refers to estimation with quadratic loss function. In such case, the MMSE estimator is given by the posterior mean of the parameter to be estimated.
Racine de l'erreur quadratique moyenneLa racine de l'erreur quadratique moyenne (REQM) ou racine de l'écart quadratique moyen (en anglais, root-mean-square error ou RMSE, et root-mean-square deviation ou RMSD) est une mesure fréquemment utilisée des différences entre les valeurs (valeurs d'échantillon ou de population) prédites par un modèle ou estimateur et les valeurs observées (ou vraies valeurs). La REQM représente la racine carrée du deuxième moment d'échantillonnage des différences entre les valeurs prédites et les valeurs observées.
Filtre de WienerLe filtre de Wiener est un filtre utilisé pour estimer la valeur désirée d'un signal bruité. Le filtre de Wiener minimise l'erreur quadratique moyenne entre le processus aléatoire estimé et le processus souhaité. Norbert Wiener a d'abord proposé le filtre dans les années 1940, puis publié en 1949. Vers la même époque Andreï Kolmogorov travaillait sur des filtres similaires. Le filtre de Wiener a une variété d'applications de traitement du signal, traitement d'image, des systèmes de contrôle et de la communication numérique.
Méthode des moindres carrésLa méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du , permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données. Ce modèle peut prendre diverses formes. Il peut s’agir de lois de conservation que les quantités mesurées doivent respecter. La méthode des moindres carrés permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure.
Smoothing splineSmoothing splines are function estimates, , obtained from a set of noisy observations of the target , in order to balance a measure of goodness of fit of to with a derivative based measure of the smoothness of . They provide a means for smoothing noisy data. The most familiar example is the cubic smoothing spline, but there are many other possibilities, including for the case where is a vector quantity. Let be a set of observations, modeled by the relation where the are independent, zero mean random variables (usually assumed to have constant variance).
Théorie de l'estimationEn statistique, la théorie de l'estimation s'intéresse à l'estimation de paramètres à partir de données empiriques mesurées ayant une composante aléatoire. Les paramètres décrivent un phénomène physique sous-jacent tel que sa valeur affecte la distribution des données mesurées. Un estimateur essaie d'approcher les paramètres inconnus à partir des mesures.
Densité spectrale de puissanceOn définit la densité spectrale de puissance (DSP en abrégé, Power Spectral Density ou PSD en anglais) comme étant le carré du module de la transformée de Fourier, divisé par le temps d'intégration, (ou, plus rigoureusement, la limite quand tend vers l'infini de l'espérance mathématique du carré du module de la transformée de Fourier du signal - on parle alors de densité spectrale de puissance moyenne).
Splinevignette|Exemple de spline quadratique. En mathématiques appliquées et en analyse numérique, une spline est une fonction définie par morceaux par des polynômes. Spline est un terme anglais qui, lorsqu'il est utilisé en français, est généralement prononcé , à la française. Il désigne une réglette de bois souple appelée cerce en français. Toutefois, dans l'usage des mathématiques appliquées, le terme anglais spline est généralisé et le mot français cerce ignoré.
Minimum-variance unbiased estimatorIn statistics a minimum-variance unbiased estimator (MVUE) or uniformly minimum-variance unbiased estimator (UMVUE) is an unbiased estimator that has lower variance than any other unbiased estimator for all possible values of the parameter. For practical statistics problems, it is important to determine the MVUE if one exists, since less-than-optimal procedures would naturally be avoided, other things being equal. This has led to substantial development of statistical theory related to the problem of optimal estimation.
Spline interpolationIn the mathematical field of numerical analysis, spline interpolation is a form of interpolation where the interpolant is a special type of piecewise polynomial called a spline. That is, instead of fitting a single, high-degree polynomial to all of the values at once, spline interpolation fits low-degree polynomials to small subsets of the values, for example, fitting nine cubic polynomials between each of the pairs of ten points, instead of fitting a single degree-ten polynomial to all of them.
Interpolation polynomialeEn mathématiques, en analyse numérique, l'interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, p(xi) = yi, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas. Cependant, dans le cas de l'interpolation lagrangienne, par exemple, le choix des points d'interpolation est critique.
Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
Régression multivariée par spline adaptativeLa Régression multivariée par spline adaptative (en anglais MARS pour ) est une méthode statistique ; plus précisément, c'est une forme de modèle de régression présentée pour la première fois par Jerome H. Friedman et Bernard Silverman en 1991. C'est une technique de régression non paramétrique pouvant être vue comme une extension des régressions linéaires qui modélisent automatiquement des interactions et des non-linéarités. Le terme MARS est une marque de Salford Systems.
Moyenne pondéréeLa moyenne pondérée est la moyenne d'un certain nombre de valeurs affectées de coefficients. En statistiques, considérant un ensemble de données et les coefficients, ou poids, correspondants, de somme non nulle, la moyenne pondérée est calculée suivant la formule : quotient de la somme pondérée des par la somme des poids soit Il s'agit donc du barycentre du système . Lorsque tous les poids sont égaux, la moyenne pondérée est identique à la moyenne arithmétique.
Filtre adaptatifUn filtre adaptatif est un système avec un filtre linéaire dont la fonction de transfert est contrôlée par des paramètres variables et un moyen d'ajuster ces paramètres selon un algorithme d'optimisation. En raison de la complexité des algorithmes d'optimisation, presque tous les filtres adaptatifs sont des filtres numériques. Les filtres adaptatifs sont nécessaires pour certaines applications parce que certains paramètres du traitement souhaité (par exemple, l'emplacement des surfaces réfléchissantes dans un espace réverbérant) ne sont pas connus à l'avance ou changent.
Phénomène de Rungedroite|vignette|La courbe rouge est la fonction de Runge ; la courbe bleue est le polynôme interpolateur de degré 5 et la courbe verte est le polynôme interpolateur de degré 9. L'approximation est de plus en plus mauvaise. Dans le domaine mathématique de l'analyse numérique, le phénomène de Runge se manifeste dans le contexte de l'interpolation polynomiale, en particulier l'interpolation de Lagrange. Avec certaines fonctions (même analytiques), l'augmentation du nombre n de points d'interpolation ne constitue pas nécessairement une bonne stratégie d'approximation.
Bayes estimatorIn estimation theory and decision theory, a Bayes estimator or a Bayes action is an estimator or decision rule that minimizes the posterior expected value of a loss function (i.e., the posterior expected loss). Equivalently, it maximizes the posterior expectation of a utility function. An alternative way of formulating an estimator within Bayesian statistics is maximum a posteriori estimation. Suppose an unknown parameter is known to have a prior distribution .