Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Indépendance linéaireEn algèbre linéaire, étant donné une famille de vecteurs d'un même espace vectoriel, les vecteurs de la famille sont linéairement indépendants, ou forment une famille libre, si la seule combinaison linéaire de ces vecteurs qui soit égale au vecteur nul est celle dont tous les coefficients sont nuls. Cela revient à dire qu'aucun des vecteurs de la famille n'est combinaison linéaire des autres. Dans le cas où des vecteurs ne sont pas linéairement indépendants, on dit qu'ils sont linéairement dépendants, ou qu'ils forment une famille liée.
CoefficientUn coefficient est un facteur constant, exprimé par un nombre ou par un symbole qui le représente, qui s’applique à une grandeur variable (grandeur physique ou variable mathématique). En physique par exemple, quand la vitesse d’un solide mobile est constante, la distance parcourue est proportionnelle à la durée du parcours, la vitesse étant le coefficient de proportionnalité à appliquer à une durée donnée pour obtenir la distance parcourue pendant ce temps.
Espace colonne et espace des rangéesEn algèbre linéaire, lespace colonne (aussi appelé espace des colonnes ou ) d'une matrice A est l'espace engendré par toutes les combinaisons linéaires de ses vecteurs colonne. L'espace colonne d'une matrice est l'image de lapplication linéaire correspondante. Soit un corps. L'espace colonne d'une matrice de taille à éléments dans est un sous-espace vectoriel de . La dimension d'un espace colonne est appelé le rang d'une matrice et est au plus égal au minimum de et . Une définition des matrices sur un anneau est également possible.
Gaussian eliminationIn mathematics, Gaussian elimination, also known as row reduction, is an algorithm for solving systems of linear equations. It consists of a sequence of operations performed on the corresponding matrix of coefficients. This method can also be used to compute the rank of a matrix, the determinant of a square matrix, and the inverse of an invertible matrix. The method is named after Carl Friedrich Gauss (1777–1855).
Équation linéaireUne équation à coefficients réels ou complexes est dite linéaire quand elle peut être présentée sous la forme ax = b ou, de manière équivalente ax – b = 0, où x est l'inconnue, a et b sont deux nombres donnés. Si a est différent de zéro, la seule solution est le nombre x = b/a. Plus généralement, une équation est dite linéaire lorsqu'elle se présente sous la forme u(x) = b, où u est une application linéaire entre deux espaces vectoriels E et F, b étant un vecteur donné de F. On recherche l'inconnue x dans E.
Rang (algèbre linéaire)En algèbre linéaire : le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ; le rang d'une application linéaire de dans est la dimension de son , qui est un sous-espace vectoriel de . Le théorème du rang relie la dimension de , la dimension du noyau de et le rang de ; le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ; le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent.
Analyse numériqueL’analyse numérique est une discipline à l'interface des mathématiques et de l'informatique. Elle s’intéresse tant aux fondements qu’à la mise en pratique des méthodes permettant de résoudre, par des calculs purement numériques, des problèmes d’analyse mathématique. Plus formellement, l’analyse numérique est l’étude des algorithmes permettant de résoudre numériquement par discrétisation les problèmes de mathématiques continues (distinguées des mathématiques discrètes).
Physique numériqueLa physique numérique (ou parfois physique informatique) est l'étude et l'implémentation d'algorithmes numériques dans le but de résoudre des problèmes physiques pour lesquels une théorie existe déjà. Elle est souvent considérée comme une sous-discipline de la physique théorique mais certains la considèrent comme une branche intermédiaire entre la physique théorique et la physique expérimentale. En général, les physiciens définissent un système et son évolution grâce à des formules mathématiques précises.
Équationvignette|upright=1.2|Robert Recorde est un précurseur pour l'écriture d'une équation. Il invente l'usage du signe = pour désigner une égalité. vignette|upright=1.2|Un système dynamique correspond à un type particulier d'équation, dont les solutions recherchées sont des fonctions. Le comportement limite est parfois complexe. Dans certains cas, il est caractérisé par une curieuse figure géométrique, appelée attracteur étrange. Une équation est, en mathématiques, une relation (en général une égalité) contenant une ou plusieurs variables.
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Sous-espace vectorielEn algèbre linéaire, un sous-espace vectoriel d'un espace vectoriel E, est une partie non vide F, de E, stable par combinaisons linéaires. Cette stabilité s'exprime par : la somme de deux vecteurs de F appartient à F ; le produit d'un vecteur de F par un scalaire appartient à F. Muni des lois induites, F est alors un espace vectoriel. L'intersection d'une famille non vide de sous-espaces de E est un sous-espace de E. La réunion d'une famille non vide de sous-espaces n'en est généralement pas un ; le sous-espace engendré par cette réunion est la somme de cette famille.
Algèbre linéairevignette|R3 est un espace vectoriel de dimension 3. Droites et plans qui passent par l'origine sont des sous-espaces vectoriels. L’algèbre linéaire est la branche des mathématiques qui s'intéresse aux espaces vectoriels et aux transformations linéaires, formalisation générale des théories des systèmes d'équations linéaires. L'algèbre linéaire est initiée dans son principe par le mathématicien perse Al-Khwârizmî qui s'est inspiré des textes de mathématiques indiens et qui a complété les travaux de l'école grecque, laquelle continuera de se développer des siècles durant.
Espace affineEn géométrie, la notion d'espace affine généralise la notion d'espace issue de la géométrie euclidienne en omettant les notions d'angle et de distance. Dans un espace affine, on peut parler d'alignement, de parallélisme, de barycentre. Sous la forme qui utilise des rapports de mesures algébriques, qui est une notion affine, le théorème de Thalès et le théorème de Ceva sont des exemples de théorèmes de géométrie affine plane réelle (c'est-à-dire n'utilisant que la structure d'espace affine du plan réel).
Combinaison linéaireEn mathématiques, une combinaison linéaire est une expression construite à partir d'un ensemble de termes en multipliant chaque terme par une constante et en ajoutant le résultat. Par exemple, une combinaison linéaire de x et y serait une expression de la forme ax + by, où a et b sont des constantes. Le concept de combinaison linéaire est central en algèbre linéaire et dans des domaines connexes des mathématiques. La majeure partie de cet article traite des combinaisons linéaires dans le contexte d'espace vectoriel sur un corps commutatif, et indique quelques généralisations à la fin de l'article.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Kernel (linear algebra)In mathematics, the kernel of a linear map, also known as the null space or nullspace, is the linear subspace of the domain of the map which is mapped to the zero vector. That is, given a linear map L : V → W between two vector spaces V and W, the kernel of L is the vector space of all elements v of V such that L(v) = 0, where 0 denotes the zero vector in W, or more symbolically: The kernel of L is a linear subspace of the domain V.
Matrice échelonnéeEn algèbre linéaire, une matrice est dite échelonnée en lignes si le nombre de zéros précédant la première valeur non nulle d'une ligne augmente strictement ligne par ligne jusqu'à ce qu'il ne reste éventuellement plus que des zéros. Voici un exemple de matrice échelonnée (les désignent des coefficients quelconques, les des pivots, coefficients non nuls) : Une matrice échelonnée est dite matrice échelonnée réduite, ou matrice canonique en lignes, si les pivots valent 1 et si les autres coefficients dans les colonnes des pivots sont nuls.
Décomposition LUEn algèbre linéaire, la décomposition LU est une méthode de décomposition d'une matrice comme produit d'une matrice triangulaire inférieure (comme lower, inférieure en anglais) par une matrice triangulaire supérieure (comme upper, supérieure). Cette décomposition est utilisée en analyse numérique pour résoudre des systèmes d'équations linéaires. Soit une matrice carrée. On dit que admet une décomposition LU s'il existe une matrice triangulaire inférieure formée de 1 sur la diagonale, notée , et une matrice triangulaire supérieure, notée , qui vérifient l'égalité Il n'est pas toujours vrai qu'une matrice admette une décomposition LU.
HyperplanEn mathématiques et plus particulièrement en algèbre linéaire et géométrie, les hyperplans d'un espace vectoriel E de dimension quelconque sont la généralisation des plans vectoriels d'un espace de dimension 3 : ce sont les sous-espaces vectoriels de codimension 1 dans E. Si E est de dimension finie n non nulle, ses hyperplans sont donc ses sous-espaces de dimension n – 1 : par exemple l'espace nul dans une droite vectorielle, une droite vectorielle dans un plan vectoriel Soient E un espace vectoriel et H un sous-espace.