Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Équations de Maxwellvignette|Plaque représentant les équations de Maxwell au pied de la statue en hommage à James Clerk Maxwell d'Edimbourg. Les équations de Maxwell, aussi appelées équations de Maxwell-Lorentz, sont des lois fondamentales de la physique. Elles constituent, avec l'expression de la force électromagnétique de Lorentz, les postulats de base de l'électromagnétisme. Ces équations traduisent sous forme locale différents théorèmes (Gauss, Ampère, Faraday) qui régissaient l'électromagnétisme avant que Maxwell ne les réunisse sous forme d'équations intégrales.
Algèbre géométrique (structure)Une algèbre géométrique est, en mathématiques, une structure algébrique, similaire à une algèbre de Clifford réelle, mais dotée d'une interprétation géométrique mise au point par David Hestenes, reprenant les travaux de Hermann Grassmann et William Kingdon Clifford (le terme est aussi utilisé dans un sens plus général pour décrire l'étude et l'application de ces algèbres : l'algèbre géométrique est l'étude des algèbres géométriques).
Maxwell's equations in curved spacetimeIn physics, Maxwell's equations in curved spacetime govern the dynamics of the electromagnetic field in curved spacetime (where the metric may not be the Minkowski metric) or where one uses an arbitrary (not necessarily Cartesian) coordinate system. These equations can be viewed as a generalization of the vacuum Maxwell's equations which are normally formulated in the local coordinates of flat spacetime.
Matrice de DiracLes matrices de Dirac sont des matrices qui furent introduites par Paul Dirac, lors de la recherche d'une équation d'onde relativiste de l'électron. Le pendant relativiste de l'équation de Schrödinger est l'équation de Klein-Gordon. Celle-ci décrit des particules de spin 0 et ne convient pas pour les électrons qui sont de spin 1/2. Dirac essaya alors de trouver une équation linéaire comme celle de Schrödinger sous la forme : où est une fonction d'onde vectorielle, la masse de la particule, l'hamiltonien, sont respectivement un vecteur de matrices hermitiques et une matrice hermitique, et i désigne l'unité imaginaire.
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Algèbre généraleL'algèbre générale, ou algèbre abstraite, est la branche des mathématiques qui porte principalement sur l'étude des structures algébriques et de leurs relations. L'appellation algèbre générale s'oppose à celle d'algèbre élémentaire ; cette dernière enseigne le calcul algébrique, c'est-à-dire les règles de manipulation des formules et des expressions algébriques. Historiquement, les structures algébriques sont apparues dans différents domaines des mathématiques, et n'y ont pas été étudiées séparément.
Système d'équations linéairesEn mathématiques et particulièrement en algèbre linéaire, un système d'équations linéaires est un système d'équations constitué d'équations linéaires qui portent sur les mêmes inconnues. Par exemple : Le problème est de trouver les valeurs des inconnues , et qui satisfassent les trois équations simultanément. La résolution des systèmes d'équations linéaires appartient aux problèmes les plus anciens dans les mathématiques et ceux-ci apparaissent dans beaucoup de domaines, comme en traitement numérique du signal, en optimisation linéaire, ou dans l'approximation de problèmes non linéaires en analyse numérique.
Produit tensorielEn mathématiques, le produit tensoriel est un moyen commode de coder les objets multilinéaires. Il est utilisé en algèbre, en géométrie différentielle, en géométrie riemannienne, en analyse fonctionnelle et en physique (mécanique des solides, relativité générale et mécanique quantique). Théorème et définition. Soient et deux espaces vectoriels sur un corps commutatif .
Trace (algèbre)En algèbre linéaire, la trace d'une matrice carrée A est définie comme la somme de ses coefficients diagonaux et souvent notée Tr(A). La trace peut être vue comme une forme linéaire sur l'espace vectoriel des matrices. Elle vérifie l'identité : Tr(AB) = Tr(BA), et est en conséquence invariante par similitude. De façon voisine, si u est un endomorphisme d'un espace vectoriel de dimension finie sur un corps commutatif K, on peut définir la trace de l'opérateur u, par exemple comme trace de sa matrice dans n'importe quelle base.
Matrice par blocsvignette|Un matrice présente une structure par blocs si l'on peut isoler les termes non nuls dans des sous-matrices (ici la structure « diagonale par blocs » d'une réduite de Jordan). On appelle matrice par blocs une matrice divisée en blocs à partir d'un groupement quelconque de termes contigus de sa diagonale. Chaque bloc étant indexé comme on indicerait les éléments d'une matrice, la somme et le produit de deux matrices partitionnées suivant les mêmes tailles de bloc, s'obtiennent avec les mêmes règles formelles que celles des composantes (mais en veillant à l'ordre des facteurs dans les produits matriciels!).
Formulation implicite ou explicite d'un problème de dynamiqueEn simulation numérique, un problème dépendant du temps peut être formulé de manière implicite ou explicite. Un problème dépendant du temps décrit une situation qui évolue ; le système est modélisé à différents instants t discrets appelés « pas de temps ». La méthode explicite consiste à déterminer la solution à t + Δt en fonction de la valeur de la fonction en t. Si la fonction à évaluer s'appelle y(t), alors le problème se formule de la manière suivante : y(t + Δt) = F(y(t)). La méthode d'Euler est une méthode explicite.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.
Équation différentielle à retardEn mathématiques, les équations différentielles à retard (EDR) sont un type d'équation différentielle dans laquelle la dérivée de la fonction inconnue à un certain instant est donnée en fonction des valeurs de la fonction aux instants précédents. Les EDR sont également appelés des systèmes à retard, systèmes avec effet secondaire ou temps mort, systèmes héréditaires, équations à argument déviant, ou équations aux différences différentielles .
Covariant formulation of classical electromagnetismThe covariant formulation of classical electromagnetism refers to ways of writing the laws of classical electromagnetism (in particular, Maxwell's equations and the Lorentz force) in a form that is manifestly invariant under Lorentz transformations, in the formalism of special relativity using rectilinear inertial coordinate systems. These expressions both make it simple to prove that the laws of classical electromagnetism take the same form in any inertial coordinate system, and also provide a way to translate the fields and forces from one frame to another.
Idempotent matrixIn linear algebra, an idempotent matrix is a matrix which, when multiplied by itself, yields itself. That is, the matrix is idempotent if and only if . For this product to be defined, must necessarily be a square matrix. Viewed this way, idempotent matrices are idempotent elements of matrix rings. Examples of idempotent matrices are: Examples of idempotent matrices are: If a matrix is idempotent, then implying so or implying so or Thus, a necessary condition for a matrix to be idempotent is that either it is diagonal or its trace equals 1.
Produit scalaireEn mathématiques, et plus précisément en algèbre et en géométrie vectorielle, le produit scalaire est une opération algébrique s'ajoutant aux lois s'appliquant aux vecteurs. C'est une forme bilinéaire, symétrique, définie positive. À deux vecteurs, elle associe un scalaire, c'est-à-dire un nombre tel que ceux qui définissent cet espace vectoriel — réel pour un espace vectoriel réel. Si et sont deux vecteurs d'un espace vectoriel E sur le corps R des nombres réels, alors le produit scalaire de u par v est un scalaire (c'est-à-dire un élément de R), noté ∙ , , , ou .
Produit vectorielEn mathématiques, et plus précisément en géométrie, le produit vectoriel est une opération vectorielle effectuée dans les espaces euclidiens orientés de dimension 3. Le formalisme utilisé actuellement est apparu en 1881 dans un manuel d'analyse vectorielle écrit par Josiah Willard Gibbs pour ses étudiants en physique. Les travaux de Hermann Günther Grassmann et William Rowan Hamilton sont à l'origine du produit vectoriel défini par Gibbs.
Matrice de permutationUne matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes : les coefficients sont 0 ou 1 ; il y a un et un seul 1 par ligne ; il y a un et un seul 1 par colonne. Ainsi : est une matrice de permutation. Les matrices de permutations carrées de taille n sont en bijection avec les permutations de l'ensemble {1,2,...n}. Si σ est une telle permutation, la matrice correspondante est de terme général Cette bijection est un morphisme de groupes : En utilisant cette identité avec deux permutations inverses l'une de l'autre, on obtient le fait qu'une matrice de permutation est inversible, et que son inverse est la matrice de la permutation inverse.