Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Continuous linear operatorIn functional analysis and related areas of mathematics, a continuous linear operator or continuous linear mapping is a continuous linear transformation between topological vector spaces. An operator between two normed spaces is a bounded linear operator if and only if it is a continuous linear operator. Continuous function (topology) and Discontinuous linear map Bounded operator Suppose that is a linear operator between two topological vector spaces (TVSs). The following are equivalent: is continuous.
Opérateur bornéEn mathématiques, la notion d'opérateur borné est un concept d'analyse fonctionnelle. Il s'agit d'une application linéaire L entre deux espaces vectoriels normés X et Y telle que l'image de la boule unité de X est une partie bornée de Y. On montre qu'ils s'identifient aux applications linéaires continues de X dans Y. L'ensemble des opérateurs bornés est muni d'une norme issue des normes de X et de Y, la norme d'opérateur. Une application linéaire L entre les espaces vectoriels normés X et Y est appelée opérateur borné quand l'ensemble est borné.
Opérateur non bornéEn analyse fonctionnelle, un opérateur non borné est une application linéaire partiellement définie. Plus précisément, soient X, Y deux espaces vectoriels. Un tel opérateur est donné par un sous-espace dom(T) de X et une application linéaire dont l'ensemble de définition est dom(T) et l'ensemble d'arrivée est Y. Considérons X = Y = L(R) et l'espace de Sobolev H(R) des fonctions de carré intégrable dont la dérivée au sens des distributions appartient, elle aussi, à L(R).
Opérateur compactEn mathématiques, et plus précisément en analyse fonctionnelle, un opérateur compact est une application continue entre deux espaces vectoriels topologiques X et Y envoyant les parties bornées de X sur les parties relativement compactes de Y. Les applications linéaires compactes généralisent les applications linéaires continues de rang fini. La théorie est particulièrement intéressante pour les espaces vectoriels normés ou les espaces de Banach. En particulier, dans un espace de Banach, l'ensemble des opérateurs compacts est fermé pour la topologie forte.
Application linéaireEn mathématiques, une application linéaire (aussi appelée opérateur linéaire ou transformation linéaire) est une application entre deux espaces vectoriels qui respecte l'addition des vecteurs et la multiplication scalaire, et préserve ainsi plus généralement les combinaisons linéaires. L’expression peut s’utiliser aussi pour un morphisme entre deux modules sur un anneau, avec une présentation semblable en dehors des notions de base et de dimension. Cette notion étend celle de fonction linéaire en analyse réelle à des espaces vectoriels plus généraux.
Discontinuous linear mapIn mathematics, linear maps form an important class of "simple" functions which preserve the algebraic structure of linear spaces and are often used as approximations to more general functions (see linear approximation). If the spaces involved are also topological spaces (that is, topological vector spaces), then it makes sense to ask whether all linear maps are continuous. It turns out that for maps defined on infinite-dimensional topological vector spaces (e.g.
Projecteur (mathématiques)En algèbre linéaire, un projecteur (ou une projection) est une application linéaire qu'on peut présenter de deux façons équivalentes : une projection linéaire associée à une décomposition de E comme somme de deux sous-espaces supplémentaires, c'est-à-dire qu'elle permet d'obtenir un des termes de la décomposition correspondante ; une application linéaire idempotente : elle vérifie p = p. Dans un espace hilbertien ou même seulement préhilbertien, une projection pour laquelle les deux supplémentaires sont orthogonaux est appelée projection orthogonale.
DérivabilitéUne fonction réelle d'une variable réelle est dérivable en un point a quand elle admet une dérivée finie en a, c'est-à-dire, intuitivement, quand elle peut être approchée de manière assez fine par une fonction affine au voisinage de a. Elle est dérivable sur un intervalle réel ouvert non vide si elle est dérivable en chaque point de cet intervalle. Elle est dérivable sur un intervalle réel fermé et borné (c'est-à-dire sur un segment réel) non réduit à un point si elle est dérivable sur l'intérieur de cet intervalle et dérivable à droite en sa borne gauche, et dérivable à gauche en sa borne droite.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Linear least squaresLinear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
Régression des moindres carrés partielsLa régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS ( et/ou ). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression.
Régression logistiqueEn statistiques, la régression logistique ou modèle logit est un modèle de régression binomiale. Comme pour tous les modèles de régression binomiale, il s'agit d'expliquer au mieux une variable binaire (la présence ou l'absence d'une caractéristique donnée) par des observations réelles nombreuses, grâce à un modèle mathématique. En d'autres termes d'associer une variable aléatoire de Bernoulli (génériquement notée ) à un vecteur de variables aléatoires . La régression logistique constitue un cas particulier de modèle linéaire généralisé.
Least-angle regressionIn statistics, least-angle regression (LARS) is an algorithm for fitting linear regression models to high-dimensional data, developed by Bradley Efron, Trevor Hastie, Iain Johnstone and Robert Tibshirani. Suppose we expect a response variable to be determined by a linear combination of a subset of potential covariates. Then the LARS algorithm provides a means of producing an estimate of which variables to include, as well as their coefficients.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Régression non linéaireUne régression non linéaire consiste à ajuster un modèle, en général non linéaire, y = ƒa1, ..., am(x) pour un ensemble de valeurs (xi, yi)1 ≤ i ≤ n. Les variables xi et yi peuvent être des scalaires ou des vecteurs. Par « ajuster », il faut comprendre : déterminer les paramètres de la loi, (a1, ..., am), afin de minimiser S = ||ri||, avec : ri = yi - ƒa1, ..., am(xi). ||...|| est une norme. On utilise en général la norme euclidienne, ou norme l2 ; on parle alors de méthode des moindres carrés.
Fonction régulière non analytiqueEn mathématiques, les fonctions régulières (i.e. les fonctions indéfiniment dérivables) et les fonctions analytiques sont deux types courants et d'importance parmi les fonctions. Si on peut prouver que toute fonction analytique réelle est régulière, la réciproque est fausse. Une des applications des fonctions régulières à support compact est la construction de fonctions régularisantes, qui sont utilisées dans la théorie des fonctions généralisées, telle la théorie des distributions de Laurent Schwartz.
Ridge regressionRidge regression is a method of estimating the coefficients of multiple-regression models in scenarios where the independent variables are highly correlated. It has been used in many fields including econometrics, chemistry, and engineering. Also known as Tikhonov regularization, named for Andrey Tikhonov, it is a method of regularization of ill-posed problems. It is particularly useful to mitigate the problem of multicollinearity in linear regression, which commonly occurs in models with large numbers of parameters.
Opérateur différentielEn mathématiques, et plus précisément en analyse, un opérateur différentiel est un opérateur agissant sur des fonctions différentiables. Lorsque la fonction est à une seule variable, l'opérateur différentiel est construit à partir des dérivées ordinaires. Lorsque la fonction est à plusieurs variables, l'opérateur différentiel est construit à partir des dérivées partielles. Un opérateur différentiel agissant sur deux fonctions est appelé opérateur bidifférentiel.
Variété différentielleEn mathématiques, les variétés différentielles ou variétés différentiables sont les objets de base de la topologie différentielle et de la géométrie différentielle. Il s'agit de variétés, « espaces courbes » localement modelés sur l'espace euclidien de dimension n, sur lesquelles il est possible de généraliser une bonne part des opérations du calcul différentiel et intégral. Une variété différentielle se définit donc d'abord par la donnée d'une variété topologique, espace topologique localement homéomorphe à l'espace R.