Décomposition en valeurs singulièresEn mathématiques, le procédé d'algèbre linéaire de décomposition en valeurs singulières (ou SVD, de l'anglais singular value decomposition) d'une matrice est un outil important de factorisation des matrices rectangulaires réelles ou complexes. Ses applications s'étendent du traitement du signal aux statistiques, en passant par la météorologie. Le théorème spectral énonce qu'une matrice normale peut être diagonalisée par une base orthonormée de vecteurs propres.
Condition aux limites de RobinEn mathématique, une condition aux limites de Robin (ou de troisième type) est un type de condition aux limites portant le nom du mathématicien français Victor Gustave Robin (1855-1897), qui a travaillé dans le domaine de la thermodynamique. Elle est également appelée condition aux limites de Fourier. Imposée à une équation différentielle ordinaire ou à une équation aux dérivées partielles, il s'agit d'une relation linéaire entre les valeurs de la fonction et les valeurs de la dérivée de la fonction sur le bord du domaine.
Condition aux limites de DirichletEn mathématiques, une condition aux limites de Dirichlet (nommée d’après Johann Dirichlet) est imposée à une équation différentielle ou à une équation aux dérivées partielles lorsque l'on spécifie les valeurs que la solution doit vérifier sur les frontières/limites du domaine. Pour une équation différentielle, par exemple : la condition aux limites de Dirichlet sur l'intervalle s'exprime par : où et sont deux nombres donnés.
Condition aux limites de NeumannEn mathématiques, une condition aux limites de Neumann (nommée d'après Carl Neumann) est imposée à une équation différentielle ou à une équation aux dérivées partielles lorsque l'on spécifie les valeurs des dérivées que la solution doit vérifier sur les frontières/limites du domaine. Pour une équation différentielle, par exemple : la condition aux limites de Neumann sur l'intervalle s'exprime par : où et sont deux nombres donnés.
Problème aux limitesEn analyse, un problème aux limites est constitué d'une équation différentielle (ou plus généralement aux dérivées partielles) dont on recherche une solution prenant de plus des valeurs imposées en des limites du domaine de résolution. Contrairement au problème analogue dit de Cauchy, où une ou plusieurs conditions en un même endroit sont imposées (typiquement la valeur de la solution et de ses dérivées successives en un point), auquel le théorème de Cauchy-Lipschitz apporte une réponse générale, les problèmes aux limites sont souvent des problèmes difficiles, et dont la résolution peut à chaque fois conduire à des considérations différentes.
Cauchy boundary conditionIn mathematics, a Cauchy (koʃi) boundary condition augments an ordinary differential equation or a partial differential equation with conditions that the solution must satisfy on the boundary; ideally so as to ensure that a unique solution exists. A Cauchy boundary condition specifies both the function value and normal derivative on the boundary of the domain. This corresponds to imposing both a Dirichlet and a Neumann boundary condition. It is named after the prolific 19th-century French mathematical analyst Augustin-Louis Cauchy.
HolonomieEn mathématiques, et plus précisément en géométrie différentielle, l'holonomie d'une connexion sur une variété différentielle est une mesure de la façon dont le transport parallèle le long de boucles fermées modifie les informations géométriques transportées. Cette modification est une conséquence de la courbure de la connexion (ou plus généralement de sa "forme"). Pour des connexions plates, l'holonomie associée est un type de monodromie, et c'est dans ce cas une notion uniquement globale.
Condition aux limites mêléeEn mathématiques, une condition aux limites mêlée ou mixte correspond à la juxtaposition de différentes conditions aux limites sur différentes parties du bord (ou frontière) du domaine dans lequel est posée une équation aux dérivées partielles ou une équation différentielle ordinaire. Par exemple, si l'on considère les vibrations d'une corde élastique de longueur L se déplaçant à une vitesse c dont une extrémité (en 0) est fixe, et l'autre (en L) est attachée à un anneau oscillant librement le long d'une tige droite, on a alors une équation sur un intervalle [0,L].
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Matrice orthogonaleUne matrice carrée A (n lignes, n colonnes) à coefficients réels est dite orthogonale si A A = I, où A est la matrice transposée de A et I est la matrice identité. Des exemples de matrices orthogonales sont les matrices de rotation, comme la matrice de rotation plane d'angle θ ou les matrices de permutation, comme Une matrice réelle A est orthogonale si et seulement si elle est inversible et son inverse est égale à sa transposée : A = A. Une matrice carrée est orthogonale si et seulement si ses vecteurs colonnes sont orthogonaux deux à deux et de norme 1.
Singular valueIn mathematics, in particular functional analysis, the singular values, or s-numbers of a compact operator acting between Hilbert spaces and , are the square roots of the (necessarily non-negative) eigenvalues of the self-adjoint operator (where denotes the adjoint of ). The singular values are non-negative real numbers, usually listed in decreasing order (σ1(T), σ2(T), ...). The largest singular value σ1(T) is equal to the operator norm of T (see Min-max theorem).
Square matrixIn mathematics, a square matrix is a matrix with the same number of rows and columns. An n-by-n matrix is known as a square matrix of order . Any two square matrices of the same order can be added and multiplied. Square matrices are often used to represent simple linear transformations, such as shearing or rotation. For example, if is a square matrix representing a rotation (rotation matrix) and is a column vector describing the position of a point in space, the product yields another column vector describing the position of that point after that rotation.
Tenseur de torsionEn géométrie différentielle, la torsion constitue, avec la courbure, une mesure de la façon dont une base mobile évolue le long des courbes, et le tenseur de torsion en donne l'expression générale dans le cadre des variétés, c'est-à-dire des « espaces courbes » de toutes dimensions. La torsion se manifeste en géométrie différentielle classique comme une valeur numérique associée à chaque point d'une courbe de l'espace euclidien.
AngleEn géométrie, la notion générale d'angle se décline en plusieurs concepts. Dans son sens ancien, l'angle est une figure plane, portion de plan délimitée par deux demi-droites. C'est ainsi qu'on parle des angles d'un polygone. Cependant, l'usage est maintenant d'employer le terme « secteur angulaire » pour une telle figure. L'angle peut désigner également une portion de l'espace délimitée par deux plans (angle dièdre). La mesure de tels angles porte couramment mais abusivement le nom d'angle, elle aussi.
Matrix decompositionIn the mathematical discipline of linear algebra, a matrix decomposition or matrix factorization is a factorization of a matrix into a product of matrices. There are many different matrix decompositions; each finds use among a particular class of problems. In numerical analysis, different decompositions are used to implement efficient matrix algorithms. For instance, when solving a system of linear equations , the matrix A can be decomposed via the LU decomposition.
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Matrices de PauliLes matrices de Pauli, développées par Wolfgang Pauli, forment, au facteur i près, une base de l'algèbre de Lie du groupe SU(2). Elles sont définies comme l'ensemble de matrices complexes de dimensions suivantes : (où i est l’unité imaginaire des nombres complexes). Ces matrices sont utilisées en mécanique quantique pour représenter le spin des particules, notamment dès 1927 dans l'étude non-relativiste du spin de l'électron : l'équation de Pauli.
Matrice de DiracLes matrices de Dirac sont des matrices qui furent introduites par Paul Dirac, lors de la recherche d'une équation d'onde relativiste de l'électron. Le pendant relativiste de l'équation de Schrödinger est l'équation de Klein-Gordon. Celle-ci décrit des particules de spin 0 et ne convient pas pour les électrons qui sont de spin 1/2. Dirac essaya alors de trouver une équation linéaire comme celle de Schrödinger sous la forme : où est une fonction d'onde vectorielle, la masse de la particule, l'hamiltonien, sont respectivement un vecteur de matrices hermitiques et une matrice hermitique, et i désigne l'unité imaginaire.
Angle droitDans le plan euclidien, deux droites sécantes définissent quatre angles deux à deux égaux. Lorsque ces quatre angles sont égaux, chacun forme un angle droit. Les droites sont alors dites perpendiculaires. Le terme angle droit est un calque du latin angulus rectus : rectus signifie « debout », ce qui renvoie à l'image d'une perpendiculaire à une ligne horizontale. Euclide écrivait, au , dans ses Éléments, livre I, Définition 10 : Un angle droit est donc un quart de tour, ou encore la moitié d'un angle plat.
Degenerate bilinear formIn mathematics, specifically linear algebra, a degenerate bilinear form f (x, y ) on a vector space V is a bilinear form such that the map from V to V∗ (the dual space of V ) given by v ↦ (x ↦ f (x, v )) is not an isomorphism. An equivalent definition when V is finite-dimensional is that it has a non-trivial kernel: there exist some non-zero x in V such that for all A nondegenerate or nonsingular form is a bilinear form that is not degenerate, meaning that is an isomorphism, or equivalently in finite dimensions, if and only if for all implies that .