Espace de Hilbertvignette|Une photographie de David Hilbert (1862 - 1943) qui a donné son nom aux espaces dont il est question dans cet article. En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. De plus, un espace de Hilbert est complet, ce qui permet d'y appliquer des techniques d'analyse. Ces espaces doivent leur nom au mathématicien allemand David Hilbert.
Norme d'opérateurEn mathématiques, et plus particulièrement en analyse fonctionnelle, une norme d'opérateur ou norme subordonnée est une norme définie sur l'espace des opérateurs bornés entre deux espaces vectoriels normés. Entre deux tels espaces, les opérateurs bornés ne sont autres que les applications linéaires continues. Sur un corps K « valué » (au sens : muni d'une valeur absolue) et non discret (typiquement : K = R ou C), soient E et F deux espaces vectoriels normés respectivement munis des normes ‖ ‖ et ‖ ‖.
Rayon spectralSoit un endomorphisme sur un espace de Banach complexe , on appelle rayon spectral de , et on note , le rayon de la plus petite boule fermée de centre 0 contenant toutes les valeurs spectrales de . Il est toujours inférieur ou égal à la norme d'opérateur de . En dimension finie, pour un endomorphisme de valeurs propres complexes , le rayon spectral est égal à . Par conséquent, pour toute norme matricielle N, c'est-à-dire toute norme d'algèbre sur (respectivement ) et pour toute matrice A dans (respectivement ), .
Norme matricielleEn mathématiques, une norme matricielle est un cas particulier de norme vectorielle, sur un espace de matrices. Dans ce qui suit, K désigne le corps des réels ou des complexes. Certains auteurs définissent une norme matricielle comme étant simplement une norme sur un espace vectoriel M(K) de matrices à m lignes et n colonnes à coefficients dans K. Pour d'autres, une norme matricielle est seulement définie sur une algèbre M(K) de matrices carrées et est une norme d'algèbre, c'est-à-dire qu'elle est de plus sous-multiplicative.
Norme (mathématiques)En géométrie, la norme est une extension de la valeur absolue des nombres aux vecteurs. Elle permet de mesurer la longueur commune à toutes les représentations d'un vecteur dans un espace affine, mais définit aussi une distance entre deux vecteurs invariante par translation et compatible avec la multiplication externe. La norme usuelle dans le plan ou l'espace est dite euclidienne car elle est associée à un produit scalaire, à la base de la géométrie euclidienne.
Algèbre de BanachEn mathématiques, l'algèbre de Banach est une des structures fondamentales de l'analyse fonctionnelle, portant le nom du mathématicien polonais Stefan Banach (1892-1945). On explicite cette définition : une algèbre de Banach A sur le corps K = R ou C est un espace vectoriel normé complet sur K (on note la norme) muni d'une loi interne notée multiplicativement, telle que quels que soient x, y, z éléments de A et élément de K : (associativité) ; et (bilinéarité) ; (sous-multiplicativité).
Matrices de PauliLes matrices de Pauli, développées par Wolfgang Pauli, forment, au facteur i près, une base de l'algèbre de Lie du groupe SU(2). Elles sont définies comme l'ensemble de matrices complexes de dimensions suivantes : (où i est l’unité imaginaire des nombres complexes). Ces matrices sont utilisées en mécanique quantique pour représenter le spin des particules, notamment dès 1927 dans l'étude non-relativiste du spin de l'électron : l'équation de Pauli.
Matrice de DiracLes matrices de Dirac sont des matrices qui furent introduites par Paul Dirac, lors de la recherche d'une équation d'onde relativiste de l'électron. Le pendant relativiste de l'équation de Schrödinger est l'équation de Klein-Gordon. Celle-ci décrit des particules de spin 0 et ne convient pas pour les électrons qui sont de spin 1/2. Dirac essaya alors de trouver une équation linéaire comme celle de Schrödinger sous la forme : où est une fonction d'onde vectorielle, la masse de la particule, l'hamiltonien, sont respectivement un vecteur de matrices hermitiques et une matrice hermitique, et i désigne l'unité imaginaire.
Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
Espace de Hilbert à noyau reproduisantEn analyse fonctionnelle, un espace de Hilbert à noyau reproduisant est un espace de Hilbert de fonctions pour lequel toutes les applications sont des formes linéaires continues. De manière équivalente, il existe des espaces qu'on peut définir par des noyaux reproduisants. Le sujet a été originellement et simultanément développé par Nachman Aronszajn et Stefan Bergman en 1950. Les espaces de Hilbert à noyau reproduisant sont parfois désignés sous l’acronyme issu du titre anglais RKHS, pour Reproducing Kernel Hilbert Space.
Théorie spectraleEn mathématiques, et plus particulièrement en analyse, une théorie spectrale est une théorie étendant à des opérateurs définis sur des espaces fonctionnels généraux la théorie élémentaire des valeurs propres et des vecteurs propres de matrices. Bien que ces idées viennent au départ du développement de l'algèbre linéaire, elles sont également liées à l'étude des fonctions analytiques, parce que les propriétés spectrales d'un opérateur sont liées à celles de fonctions analytiques sur les valeurs de son spectre.
Matrice densitéEn physique quantique, la matrice densité, souvent représentée par , est un objet mathématique introduit par le mathématicien et physicien John von Neumann permettant de décrire l'état d'un système physique. Elle constitue une généralisation de la formulation d'un état physique à l'aide d'un ket , en permettant de décrire des états plus généraux, appelés mélanges statistiques, que la précédente formulation ne permettait pas de décrire.
Densité spectrale de puissanceOn définit la densité spectrale de puissance (DSP en abrégé, Power Spectral Density ou PSD en anglais) comme étant le carré du module de la transformée de Fourier, divisé par le temps d'intégration, (ou, plus rigoureusement, la limite quand tend vers l'infini de l'espérance mathématique du carré du module de la transformée de Fourier du signal - on parle alors de densité spectrale de puissance moyenne).
Higher-dimensional gamma matricesIn mathematical physics, higher-dimensional gamma matrices generalize to arbitrary dimension the four-dimensional Gamma matrices of Dirac, which are a mainstay of relativistic quantum mechanics. They are utilized in relativistically invariant wave equations for fermions (such as spinors) in arbitrary space-time dimensions, notably in string theory and supergravity. The Weyl–Brauer matrices provide an explicit construction of higher-dimensional gamma matrices for Weyl spinors.
Asymptotic analysisIn mathematical analysis, asymptotic analysis, also known as asymptotics, is a method of describing limiting behavior. As an illustration, suppose that we are interested in the properties of a function f (n) as n becomes very large. If f(n) = n2 + 3n, then as n becomes very large, the term 3n becomes insignificant compared to n2. The function f(n) is said to be "asymptotically equivalent to n2, as n → ∞". This is often written symbolically as f (n) ~ n2, which is read as "f(n) is asymptotic to n2".
David HilbertDavid Hilbert, né en 1862 à Königsberg et mort en 1943 à Göttingen, est un mathématicien allemand. Il est souvent considéré comme un des plus grands mathématiciens du . Il a créé ou développé un large éventail d'idées fondamentales, que ce soit la théorie des invariants, l'axiomatisation de la géométrie ou les fondements de l'analyse fonctionnelle (avec les espaces de Hilbert). L'un des exemples les mieux connus de sa position de chef de file est sa présentation, en 1900, de ses fameux problèmes qui ont durablement influencé les recherches mathématiques du .
Liberté asymptotiqueEn théorie quantique des champs, la liberté asymptotique est la propriété que possèdent certaines théories basées sur un groupe de jauge non abélien de voir leur constante de couplage décroître lorsque les distances deviennent petites (par rapport à l'échelle de la théorie) ou réciproquement lorsque les énergies mises en jeu deviennent importantes par rapport à une certaine échelle caractéristique . Le premier exemple de théorie asymptotiquement libre est celui de la chromodynamique quantique (ou en abrégé QCD) servant à décrire les quarks ainsi que leurs interactions, qui est appelée l'interaction forte.