Divide-and-conquer eigenvalue algorithmDivide-and-conquer eigenvalue algorithms are a class of eigenvalue algorithms for Hermitian or real symmetric matrices that have recently (circa 1990s) become competitive in terms of stability and efficiency with more traditional algorithms such as the QR algorithm. The basic concept behind these algorithms is the divide-and-conquer approach from computer science. An eigenvalue problem is divided into two problems of roughly half the size, each of these are solved recursively, and the eigenvalues of the original problem are computed from the results of these smaller problems.
LinearizationIn mathematics, linearization is finding the linear approximation to a function at a given point. The linear approximation of a function is the first order Taylor expansion around the point of interest. In the study of dynamical systems, linearization is a method for assessing the local stability of an equilibrium point of a system of nonlinear differential equations or discrete dynamical systems. This method is used in fields such as engineering, physics, economics, and ecology.
Generalized eigenvectorIn linear algebra, a generalized eigenvector of an matrix is a vector which satisfies certain criteria which are more relaxed than those for an (ordinary) eigenvector. Let be an -dimensional vector space and let be the matrix representation of a linear map from to with respect to some ordered basis. There may not always exist a full set of linearly independent eigenvectors of that form a complete basis for . That is, the matrix may not be diagonalizable.
Changement de base (algèbre linéaire)En mathématiques, plus précisément en algèbre linéaire, une matrice de passage (ou encore matrice de changement de base) permet d'écrire des formules de changement de base pour les représentations matricielles des vecteurs, des applications linéaires et des formes bilinéaires. Soient K un corps commutatif, E un K-espace vectoriel de dimension finie n, et B, B' deux bases de E. Pour des raisons mnémotechniques, on qualifie B' de nouvelle base, B d'ancienne base.
Théorème spectralEn mathématiques, et plus particulièrement en algèbre linéaire et en analyse fonctionnelle, on désigne par théorème spectral plusieurs énoncés affirmant, pour certains endomorphismes, l'existence de décompositions privilégiées, utilisant en particulier l'existence de sous-espaces propres. vignette|Une illustration du théorème spectral dans le cas fini : un ellipsoïde possède (en général) trois axes de symétrie orthogonaux (notés ici x, y et z).
Matrice symétriquevignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).
Matrice de FockEn chimie quantique, la matrice de Fock est une matrice approximant l' mono-électronique d'un système quantique donné dans un ensemble de vecteurs de base. Elle est le plus souvent construite en chimie numérique lors de la résolution des équations de Roothaan pour un système atomique ou moléculaire. La matrice de Fock est en fait une approximation de l'opérateur hamiltonien réel du système quantique. Il inclut les effets de la répulsion inter-électronique seulement en moyenne.
Laplacien discretEn mathématiques, le laplacien discret est une analogie du laplacien continu adaptée au cas de problèmes discret (graphes, par exemple). Il est notamment employé en analyse numérique, par exemple dans le cadre de la résolution de l'équation de la chaleur par la méthode des différences finies, ou en pour la détection de contours. Soit une fonction réelle de deux variables réelles et et . On définit le laplacien discret de comme la somme des dérivées secondes discrètes selon et selon , soit : L'exemple précédent est décrit dans une grille régulière cartésienne de dimension (plan).
Matrice laplacienneEn théorie des graphes, une matrice laplacienne, ou matrice de Laplace, est une matrice représentant un graphe. La matrice laplacienne d'un graphe G non orienté et non réflexif est définie par : où est la matrice des degrés de G et la matrice d'adjacence de G. Formellement : A la différence de la matrice d'adjacence d'un graphe, la matrice laplacienne a une interprétation algébrique ce qui rend son analyse spectrale fructueuse. Plus précisément la matrice correspond à l'opérateur de diffusion sur le graphe.
HermitienPlusieurs entités mathématiques sont qualifiées d'hermitiennes en référence au mathématicien Charles Hermite. Produit scalaire#Généralisation aux espaces vectoriels complexesProduit scalaire hermitien Soit E un espace vectoriel complexe. On dit qu'une application f définie sur E x E dans C est une forme sesquilinéaire à gauche si quels que soient les vecteurs X, Y, Z appartenant à E, et a, b des scalaires : f est semi-linéaire par rapport à la première variable et f est linéaire par rapport à la deuxième variable Une telle forme est dite hermitienne (ou à symétrie hermitienne) si de plus : ou, ce qui est équivalent : Elle est dite hermitienne définie positive si pour tout vecteur .
Covariance matrixIn probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Spectre d'une matriceEn mathématiques, le spectre d'une matrice est l'ensemble de ses valeurs propres. En général, si est un opérateur linéaire sur n'importe quel espace vectoriel, alors son spectre est l'ensemble des scalaires tels que n'est pas inversible. Le déterminant d'une matrice est égal au produit de ses valeurs propres. De la même façon, la trace d'une matrice est égale à la somme de ses valeurs propres. On peut, donc, définir un pseudo-déterminant d'une matrice unitaire comme étant le produit de ses valeurs propres non nulles.
Base (chimie quantique)Une base en chimie quantique est un ensemble de fonctions utilisées afin de modéliser des orbitales moléculaires, qui sont développées comme combinaisons linéaires de telles fonctions avec des poids ou coefficients à déterminer. Ces fonctions sont habituellement des orbitales atomiques, car centrées sur les atomes, mais des fonctions centrées sur les liaisons ou les fonctions centrées des doublets non liants ont été utilisées comme l'ont été des paires de fonctions centrées sur les deux lobes d'une orbitale p.
Matrice stochastiqueEn mathématiques, une matrice stochastique (aussi appelée matrice de Markov) est une matrice carrée (finie ou infinie) dont chaque élément est un réel positif et dont la somme des éléments de chaque ligne vaut 1. Cela correspond, en théorie des probabilités, à la matrice de transition d'une chaîne de Markov. Une matrice est dite stochastique si toutes ses entrées sont positives (ou nulles) et si, pour tout , on a c'est-à-dire que la somme des coordonnées de chaque ligne vaut 1.
Polynôme caractéristiqueEn mathématiques, et plus particulièrement en algèbre linéaire, à toute matrice carrée à coefficients dans un anneau commutatif ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres, son déterminant et sa trace. Le théorème de Cayley-Hamilton assure que toute matrice carrée annule son polynôme caractéristique.
Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.
Fonction cubiquevignette|Courbe représentative de la fonction cubique f(x) = (x3 + 3x2 − 6x − 8)/4, qui a 3 racines réelles (où la courbe croise l'axe horizontal — où y = 0) et deux points critiques. En mathématiques, une fonction cubique est une fonction de la forme où a est non nul. L'équation f(x) = 0 est alors une équation cubique. Les solutions de cette équation polynomiale sont appelées zéros de la fonction polynomiale f. vignette|Les racines, les points stationnaires, point d'inflexion et la concavité d'un polynôme cubique (ligne noire) et ses dérivées première et seconde (rouge et bleu).
Matrice diagonalisableEn mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Analyse factorielleL'analyse factorielle est un terme qui désigne aujourd'hui plusieurs méthodes d'analyses de grands tableaux rectangulaires de données, visant à déterminer et à hiérarchiser des facteurs corrélés aux données placées en colonnes. Au sens anglo-saxon du terme, l'analyse factorielle (factor analysis) désigne une méthode de la famille de la statistique multivariée, utilisée pour décrire un ensemble de variables observées, au moyen de variables latentes (non observées).