Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Espace de Hilbertvignette|Une photographie de David Hilbert (1862 - 1943) qui a donné son nom aux espaces dont il est question dans cet article. En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. De plus, un espace de Hilbert est complet, ce qui permet d'y appliquer des techniques d'analyse. Ces espaces doivent leur nom au mathématicien allemand David Hilbert.
Endomorphisme autoadjointEn mathématiques et plus précisément en algèbre linéaire, un endomorphisme autoadjoint ou opérateur hermitien est un endomorphisme d'espace de Hilbert qui est son propre adjoint (sur un espace de Hilbert réel on dit aussi endomorphisme symétrique). Le prototype d'espace de Hilbert est un espace euclidien, c'est-à-dire un espace vectoriel sur le corps des réels, de dimension finie, et muni d'un produit scalaire. L'analogue sur le corps des complexes s'appelle un espace hermitien.
Matrice symétriquevignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).
Matrice diagonalisableEn mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Matrice normaleEn algèbre linéaire, une matrice carrée A à coefficients complexes est une matrice normale si elle commute avec sa matrice adjointe A*, c'est-à-dire si A⋅A* = A*⋅A. Toutes les matrices hermitiennes, ou unitaires sont normales, en particulier, parmi les matrices à coefficients réels, toutes les matrices symétriques, antisymétriques ou orthogonales. Ce théorème — cas particulier du théorème de décomposition de Schur — est connu sous le nom de théorème spectral, et les éléments diagonaux de UAU sont alors les valeurs propres de A.
Matrice diagonaleEn algèbre linéaire, une matrice diagonale est une matrice carrée dont les coefficients en dehors de la diagonale principale sont nuls. Les coefficients de la diagonale peuvent être ou ne pas être nuls. Une matrice diagonale est une matrice qui correspond à la représentation d'un endomorphisme diagonalisable dans une base de vecteurs propres. La matrice d'un endomorphisme diagonalisable est semblable à une matrice diagonale. Toute matrice diagonale est symétrique, normale et triangulaire.
Spectre d'un opérateur linéaireEn mathématiques, plus précisément en analyse fonctionnelle, le spectre d'un opérateur linéaire sur un espace vectoriel topologique est l'ensemble de ses valeurs spectrales. En dimension finie, cet ensemble se réduit à l'ensemble des valeurs propres de cet endomorphisme, ou de sa matrice dans une base. En et en mécanique quantique, la notion de spectre s'étend aux opérateurs non bornés fermés. Soit une algèbre de Banach unifère sur le corps des nombres complexes.
C*-algèbreEn mathématiques, une C*-algèbre (complexe) est une algèbre de Banach involutive, c’est-à-dire un espace vectoriel normé complet sur le corps des complexes, muni d'une involution notée , et d'une structure d'algèbre complexe. Elle est également nommée algèbre stellaire. Les C*-algèbres sont des outils importants de la géométrie non commutative. Cette notion a été formalisée en 1943 par Israel Gelfand et Irving Segal. Les algèbres stellaires sont centrales dans l'étude des représentations unitaires de groupes localement compacts.
Matrice orthogonaleUne matrice carrée A (n lignes, n colonnes) à coefficients réels est dite orthogonale si A A = I, où A est la matrice transposée de A et I est la matrice identité. Des exemples de matrices orthogonales sont les matrices de rotation, comme la matrice de rotation plane d'angle θ ou les matrices de permutation, comme Une matrice réelle A est orthogonale si et seulement si elle est inversible et son inverse est égale à sa transposée : A = A. Une matrice carrée est orthogonale si et seulement si ses vecteurs colonnes sont orthogonaux deux à deux et de norme 1.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Décomposition en valeurs singulièresEn mathématiques, le procédé d'algèbre linéaire de décomposition en valeurs singulières (ou SVD, de l'anglais singular value decomposition) d'une matrice est un outil important de factorisation des matrices rectangulaires réelles ou complexes. Ses applications s'étendent du traitement du signal aux statistiques, en passant par la météorologie. Le théorème spectral énonce qu'une matrice normale peut être diagonalisée par une base orthonormée de vecteurs propres.
HermitienPlusieurs entités mathématiques sont qualifiées d'hermitiennes en référence au mathématicien Charles Hermite. Produit scalaire#Généralisation aux espaces vectoriels complexesProduit scalaire hermitien Soit E un espace vectoriel complexe. On dit qu'une application f définie sur E x E dans C est une forme sesquilinéaire à gauche si quels que soient les vecteurs X, Y, Z appartenant à E, et a, b des scalaires : f est semi-linéaire par rapport à la première variable et f est linéaire par rapport à la deuxième variable Une telle forme est dite hermitienne (ou à symétrie hermitienne) si de plus : ou, ce qui est équivalent : Elle est dite hermitienne définie positive si pour tout vecteur .
Square matrixIn mathematics, a square matrix is a matrix with the same number of rows and columns. An n-by-n matrix is known as a square matrix of order . Any two square matrices of the same order can be added and multiplied. Square matrices are often used to represent simple linear transformations, such as shearing or rotation. For example, if is a square matrix representing a rotation (rotation matrix) and is a column vector describing the position of a point in space, the product yields another column vector describing the position of that point after that rotation.
Opérateur unitaireEn analyse fonctionnelle, un opérateur unitaire est un opérateur linéaire U d'un espace de Hilbert tel queUU = UU = Ioù U* est l'adjoint de U, et I l'opérateur identité. Cette propriété est équivalente à : U est une application d' dense et U préserve le produit scalaire ⟨ , ⟩. Autrement dit, pour tous vecteurs x et y de l'espace de Hilbert, ⟨Ux, Uy⟩ = ⟨x, y⟩ (ce qui entraîne que U est linéaire). D'après l'identité de polarisation, on peut remplacer « U préserve le produit scalaire » par « U préserve la norme » donc par « U est une isométrie qui fixe 0 ».
Norme d'opérateurEn mathématiques, et plus particulièrement en analyse fonctionnelle, une norme d'opérateur ou norme subordonnée est une norme définie sur l'espace des opérateurs bornés entre deux espaces vectoriels normés. Entre deux tels espaces, les opérateurs bornés ne sont autres que les applications linéaires continues. Sur un corps K « valué » (au sens : muni d'une valeur absolue) et non discret (typiquement : K = R ou C), soient E et F deux espaces vectoriels normés respectivement munis des normes ‖ ‖ et ‖ ‖.
Réduction de JordanLa réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Camille Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations différentielles ou pour déterminer le terme général de certaines suites récurrentes, qu'on la nomme parfois « jordanisation des endomorphismes ». Elle consiste à exprimer la matrice d'un endomorphisme dans une base, dite base de Jordan, où l'expression de l'endomorphisme est réduite.
Operator theoryIn mathematics, operator theory is the study of linear operators on function spaces, beginning with differential operators and integral operators. The operators may be presented abstractly by their characteristics, such as bounded linear operators or closed operators, and consideration may be given to nonlinear operators. The study, which depends heavily on the topology of function spaces, is a branch of functional analysis. If a collection of operators forms an algebra over a field, then it is an operator algebra.
Matrice unitaireEn algèbre linéaire, une matrice carrée U à coefficients complexes est dite unitaire si elle vérifie les égalités : où la matrice adjointe de U est notée U* (ou U en physique, et plus particulièrement en mécanique quantique) et I désigne la matrice identité. L'ensemble des matrices unitaires de taille n forme le groupe unitaire U(n). Les matrices unitaires carrées à coefficients réels sont les matrices orthogonales.