Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Algorithme de recherche de valeur propreUn problème important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés. Valeur propre, vecteur propre et espace propre Pour une matrice carrée A de taille n × n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation où v est un vecteur colonne n × 1 non nul, I la matrice identité de taille n × n, k un entier positif.
PréconditionneurEn algèbre linéaire et en analyse numérique, un préconditionneur d'une matrice est une matrice telle que le conditionnement de est plus petit que celui de . Le préconditionnement est surtout utilisé dans les méthodes itératives pour la résolution d'un système linéaire (méthode du gradient, méthode du gradient conjugué, ...). Au lieu de résoudre, on préfère résoudre qui permet de diminuer considérablement le nombre d'itérations dans la méthode de résolution (itérative). On dit que le système est "mieux" conditionné.
Definite matrixIn mathematics, a symmetric matrix with real entries is positive-definite if the real number is positive for every nonzero real column vector where is the transpose of . More generally, a Hermitian matrix (that is, a complex matrix equal to its conjugate transpose) is positive-definite if the real number is positive for every nonzero complex column vector where denotes the conjugate transpose of Positive semi-definite matrices are defined similarly, except that the scalars and are required to be positive or zero (that is, nonnegative).
Definite quadratic formIn mathematics, a definite quadratic form is a quadratic form over some real vector space V that has the same sign (always positive or always negative) for every non-zero vector of V. According to that sign, the quadratic form is called positive-definite or negative-definite. A semidefinite (or semi-definite) quadratic form is defined in much the same way, except that "always positive" and "always negative" are replaced by "never negative" and "never positive", respectively.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
ConiqueEn géométrie euclidienne, une conique est une courbe plane algébrique, définie initialement comme l’intersection d'un cône de révolution (supposé prolongé à l’infini de part et d’autre du sommet) avec un plan. Lorsque le plan de coupe ne passe pas par le sommet du cône, la conique est dite non dégénérée et réalise l’une des trois formes de courbe suivantes : ellipse, parabole ou hyperbole (le cercle étant un cas particulier de l'ellipse, parfois appelé quatrième forme). Ces courbes sont caractérisées par un paramètre réel appelé excentricité.
Forme quadratiquethumb|L'annulation d'une forme quadratique donne le cône de lumière de la relativité restreinte, son signe fait la différence entre les événements accessibles ou inaccessibles dans l'espace-temps. En mathématiques, une forme quadratique est un polynôme homogène de degré 2 avec un nombre quelconque de variables. Les formes quadratiques d'une, deux et trois variables sont données respectivement par les formules suivantes (a,b,c,d,e,f désignant des coefficients) : L'archétype de forme quadratique est la forme x + y + z sur R, qui définit la structure euclidienne et dont la racine carrée permet de calculer la norme d'un vecteur.
HermitienPlusieurs entités mathématiques sont qualifiées d'hermitiennes en référence au mathématicien Charles Hermite. Produit scalaire#Généralisation aux espaces vectoriels complexesProduit scalaire hermitien Soit E un espace vectoriel complexe. On dit qu'une application f définie sur E x E dans C est une forme sesquilinéaire à gauche si quels que soient les vecteurs X, Y, Z appartenant à E, et a, b des scalaires : f est semi-linéaire par rapport à la première variable et f est linéaire par rapport à la deuxième variable Une telle forme est dite hermitienne (ou à symétrie hermitienne) si de plus : ou, ce qui est équivalent : Elle est dite hermitienne définie positive si pour tout vecteur .
Heun's methodIn mathematics and computational science, Heun's method may refer to the improved or modified Euler's method (that is, the explicit trapezoidal rule), or a similar two-stage Runge–Kutta method. It is named after Karl Heun and is a numerical procedure for solving ordinary differential equations (ODEs) with a given initial value. Both variants can be seen as extensions of the Euler method into two-stage second-order Runge–Kutta methods.
EllipsoïdeEn mathématiques, et plus précisément en géométrie euclidienne, un ellipsoïde est une surface du second degré de l'espace euclidien à trois dimensions. Il fait donc partie des quadriques, avec pour caractéristique principale de ne pas posséder de point à l'infini. L'ellipsoïde admet un centre et au moins trois plans de symétrie. L'intersection d'un ellipsoïde avec un plan est une ellipse, un point ou l'ensemble vide.
Algèbre géométrique (structure)Une algèbre géométrique est, en mathématiques, une structure algébrique, similaire à une algèbre de Clifford réelle, mais dotée d'une interprétation géométrique mise au point par David Hestenes, reprenant les travaux de Hermann Grassmann et William Kingdon Clifford (le terme est aussi utilisé dans un sens plus général pour décrire l'étude et l'application de ces algèbres : l'algèbre géométrique est l'étude des algèbres géométriques).
Méthode du gradient conjuguévignette|Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Divide-and-conquer eigenvalue algorithmDivide-and-conquer eigenvalue algorithms are a class of eigenvalue algorithms for Hermitian or real symmetric matrices that have recently (circa 1990s) become competitive in terms of stability and efficiency with more traditional algorithms such as the QR algorithm. The basic concept behind these algorithms is the divide-and-conquer approach from computer science. An eigenvalue problem is divided into two problems of roughly half the size, each of these are solved recursively, and the eigenvalues of the original problem are computed from the results of these smaller problems.
Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.
Multigrid methodIn numerical analysis, a multigrid method (MG method) is an algorithm for solving differential equations using a hierarchy of discretizations. They are an example of a class of techniques called multiresolution methods, very useful in problems exhibiting multiple scales of behavior. For example, many basic relaxation methods exhibit different rates of convergence for short- and long-wavelength components, suggesting these different scales be treated differently, as in a Fourier analysis approach to multigrid.
Système de calcul formelUn système de calcul formel (computer algebra system ou CAS en anglais) est un logiciel qui facilite le calcul symbolique. La partie principale de ce système est la manipulation des expressions mathématiques sous leur forme symbolique. Les expressions peuvent être : des polynômes avec de multiples variables ; des fonctions (fonctions trigonométriques, exponentielle, etc.) ; des fonctions spéciales (gamma, zêta, erf, Bessel, etc.
Defective matrixIn linear algebra, a defective matrix is a square matrix that does not have a complete basis of eigenvectors, and is therefore not diagonalizable. In particular, an n × n matrix is defective if and only if it does not have n linearly independent eigenvectors. A complete basis is formed by augmenting the eigenvectors with generalized eigenvectors, which are necessary for solving defective systems of ordinary differential equations and other problems.