Matrice tridiagonaleEn mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls. Par exemple, la matrice suivante est tridiagonale : Une matrice , dont on note les coefficients a, est dite tridiagonale si : a = 0 pour tous (i, j) tels que i – j > 1, autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.
Arnoldi iterationIn numerical linear algebra, the Arnoldi iteration is an eigenvalue algorithm and an important example of an iterative method. Arnoldi finds an approximation to the eigenvalues and eigenvectors of general (possibly non-Hermitian) matrices by constructing an orthonormal basis of the Krylov subspace, which makes it particularly useful when dealing with large sparse matrices. The Arnoldi method belongs to a class of linear algebra algorithms that give a partial result after a small number of iterations, in contrast to so-called direct methods which must complete to give any useful results (see for example, Householder transformation).
Algorithme de recherche de valeur propreUn problème important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés. Valeur propre, vecteur propre et espace propre Pour une matrice carrée A de taille n × n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation où v est un vecteur colonne n × 1 non nul, I la matrice identité de taille n × n, k un entier positif.
Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.
Polynôme associé de LegendreEn mathématiques, un polynôme associé de Legendre, noté , est une solution particulière de l'équation générale de Legendre : laquelle n'a de solution régulière que sur l'intervalle [–1, 1] et si –m ≤ l ≤ m avec l et m entiers. Elle se réduit à l'équation différentielle de Legendre si m = 0. Cette fonction est un polynôme si m est un entier pair. Toutefois, l’appellation de « polynôme », bien qu'incorrecte, est quand même conservée dans le cas où m est un entier impair.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Harmonique sphériqueEn mathématiques, les harmoniques sphériques sont des fonctions harmoniques particulières, c'est-à-dire des fonctions dont le laplacien est nul. Les harmoniques sphériques sont particulièrement utiles pour résoudre des problèmes invariants par rotation, car elles sont les vecteurs propres de certains opérateurs liés aux rotations. Les polynômes harmoniques P(x,y,z) de degré l forment un espace vectoriel de dimension 2 l + 1, et peuvent s'exprimer en coordonnées sphériques (r, θ, φ) comme des combinaisons linéaires des (2 l + 1) fonctions : avec .
Inverse iterationIn numerical analysis, inverse iteration (also known as the inverse power method) is an iterative eigenvalue algorithm. It allows one to find an approximate eigenvector when an approximation to a corresponding eigenvalue is already known. The method is conceptually similar to the power method. It appears to have originally been developed to compute resonance frequencies in the field of structural mechanics.
Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
Équation différentielle linéaireUne équation différentielle linéaire est un cas particulier d'équation différentielle pour lequel on peut appliquer des procédés de superposition de solutions, et exploiter des résultats d'algèbre linéaire. De nombreuses équations différentielles de la physique vérifient la propriété de linéarité. De plus, les équations différentielles linéaires apparaissent naturellement en perturbant une équation différentielle (non linéaire) autour d'une de ses solutions.
Polynôme de JacobiEn mathématiques, les polynômes de Jacobi sont une classe de polynômes orthogonaux. Ils sont obtenus à partir des séries hypergéométriques dans les cas où la série est en fait finie : où est le symbole de Pochhammer pour la factorielle croissante, (Abramowitz & Stegun p561.) et ainsi, nous avons l'expression explicite pour laquelle la valeur finale est Ici, pour l'entier et est la fonction gamma usuelle, qui possède la propriété pour .
Polynôme de TchebychevEn mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Polynôme d'HermiteEn mathématiques, les polynômes d'Hermite sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite (bien qu'ils aient été définis, sous une autre forme, en premier par Pierre-Simon Laplace en 1810, surtout été étudiés par Joseph-Louis Lagrange lors de ses travaux sur les probabilités puis en détail par Pafnouti Tchebychev six ans avant Hermite). Ils sont parfois décrits comme des polynômes osculateurs.
Sciences numériquesLes sciences numériques (traduction de l'anglais computational sciences), autrement dénommées calcul scientifique ou informatique scientifique, ont pour objet la construction de modèles mathématiques et de méthodes d'analyse quantitative, en se basant sur l'utilisation des sciences du numérique, pour analyser et résoudre des problèmes scientifiques. Cette approche scientifique basée sur un recours massif aux modélisations informatiques et mathématiques et à la simulation se décline en : médecine numérique, biologie numérique, archéologie numérique, mécanique numérique, par exemple.
Méthode de la puissance itéréeEn mathématiques, la méthode de la puissance itérée ou méthode des puissances est un algorithme pour calculer la valeur propre dominante d'une matrice. Bien que cet algorithme soit simple à mettre en œuvre et populaire, il ne converge pas très vite. Étant donné une matrice A, on cherche une valeur propre de plus grand module et un vecteur propre associé. Le calcul de valeurs propres n'est en général pas possible directement (avec une formule close) : on utilise alors des méthodes itératives, et la méthode des puissances est la plus simple d'entre elles.
Équation différentielle homogèneL'expression équation différentielle homogène a deux significations totalement distinctes et indépendantes. Une équation différentielle du premier ordre mais non nécessairement linéaire est dite homogène de degré n si elle peut s'écrire sous la forme où F est une fonction homogène de degré n, c'est-à-dire vérifiant Autrement dit (en posant h(u)=F(1,u)), c'est une équation qui s'écrit Le cas le plus étudié est celui où le degré d'homogénéité est 0, à tel point que dans ce cas on ne mentionne même pas le degré.
Computational statisticsComputational statistics, or statistical computing, is the bond between statistics and computer science. It means statistical methods that are enabled by using computational methods. It is the area of computational science (or scientific computing) specific to the mathematical science of statistics. This area is also developing rapidly, leading to calls that a broader concept of computing should be taught as part of general statistical education.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Algorithme de LanczosEn algèbre linéaire, l’algorithme de Lanczos (ou méthode de Lanczos) est un algorithme itératif pour déterminer les valeurs et vecteurs propres d'une matrice carrée, ou la décomposition en valeurs singulières d'une matrice rectangulaire. Cet algorithme n'a pas de lien avec le fenêtrage de Lanczos (utilisé par exemple pour le redimensionnement d'images), si ce n'est que tous les deux tirent leur nom du même inventeur, le physicien et mathématicien hongrois Cornelius Lanczos.