Polynôme d'HermiteEn mathématiques, les polynômes d'Hermite sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite (bien qu'ils aient été définis, sous une autre forme, en premier par Pierre-Simon Laplace en 1810, surtout été étudiés par Joseph-Louis Lagrange lors de ses travaux sur les probabilités puis en détail par Pafnouti Tchebychev six ans avant Hermite). Ils sont parfois décrits comme des polynômes osculateurs.
Polynôme de LaguerreEn mathématiques, les polynômes de Laguerre, nommés d'après Edmond Laguerre, sont les solutions normalisées de l'équation de Laguerre : qui est une équation différentielle linéaire homogène d'ordre 2 et se réécrit sous la forme de Sturm-Liouville : Cette équation a des solutions non singulières seulement si n est un entier positif. Les solutions L forment une suite de polynômes orthogonaux dans L (R, edx), et la normalisation se fait en leur imposant d'être de norme 1, donc de former une famille orthonormale.
Polynôme de Legendrethumb|upright=1.5|Polynômes de Legendre En mathématiques et en physique théorique, les polynômes de Legendre constituent l'exemple le plus simple d'une suite de polynômes orthogonaux. Ce sont des solutions polynomiales P(x), sur l'intervalle x ∈ [–1, 1], de l'équation différentielle de Legendre : dans le cas particulier où le paramètre n est un entier naturel. De façon équivalente, les polynômes de Legendre sont les fonctions propres de l'endomorphisme de R[X] défini par : pour les valeurs propres .
Suite de polynômes orthogonauxEn mathématiques, une suite de polynômes orthogonaux est une suite infinie de polynômes p0(x), p1(x), p2(x) ... à coefficients réels, dans laquelle chaque pn(x) est de degré n, et telle que les polynômes de la suite sont orthogonaux deux à deux pour un produit scalaire de fonctions donné. Cette notion est utilisée par exemple en cryptologie ou en analyse numérique. Elle permet de résoudre de nombreux problèmes de physique, comme en mécanique des fluides ou en traitement du signal.
Classical orthogonal polynomialsIn mathematics, the classical orthogonal polynomials are the most widely used orthogonal polynomials: the Hermite polynomials, Laguerre polynomials, Jacobi polynomials (including as a special case the Gegenbauer polynomials, Chebyshev polynomials, and Legendre polynomials). They have many important applications in such areas as mathematical physics (in particular, the theory of random matrices), approximation theory, numerical analysis, and many others.
Polynôme de TchebychevEn mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
Polynôme de BernoulliEn mathématiques, les polynômes de Bernoulli apparaissent dans l'étude de beaucoup de fonctions spéciales et en particulier, la fonction zêta de Riemann ; des polynômes analogues, correspondant à une fonction génératrice voisine, sont connus sous le nom de polynômes d'Euler. Les polynômes de Bernoulli sont l'unique suite de polynômes telle que : La fonction génératrice pour les polynômes de Bernoulli est La fonction génératrice pour les polynômes d'Euler est Les nombres de Bernoulli sont donnés par .
Polynômethumb|Courbe représentative d'une fonction cubique. En mathématiques, un polynôme est une expression formée uniquement de produits et de sommes de constantes et d'indéterminées, habituellement notées X, Y, Z... Ces objets sont largement utilisés en pratique, ne serait-ce que parce qu'ils donnent localement une valeur approchée de toute fonction dérivable (voir l'article Développement limité) et permettent de représenter des formes lisses (voir l'article Courbe de Bézier, décrivant un cas particulier de fonction polynomiale).
Mehler kernelThe Mehler kernel is a complex-valued function found to be the propagator of the quantum harmonic oscillator. defined a function and showed, in modernized notation, that it can be expanded in terms of Hermite polynomials H(.) based on weight function exp(−x2) as This result is useful, in modified form, in quantum physics, probability theory, and harmonic analysis. In physics, the fundamental solution, (Green's function), or propagator of the Hamiltonian for the quantum harmonic oscillator is called the Mehler kernel.
Romanovski polynomialsIn mathematics, the Romanovski polynomials are one of three finite subsets of real orthogonal polynomials discovered by Vsevolod Romanovsky (Romanovski in French transcription) within the context of probability distribution functions in statistics. They form an orthogonal subset of a more general family of little-known Routh polynomials introduced by Edward John Routh in 1884. The term Romanovski polynomials was put forward by Raposo, with reference to the so-called 'pseudo-Jacobi polynomials in Lesky's classification scheme.
Generalized hypergeometric functionIn mathematics, a generalized hypergeometric series is a power series in which the ratio of successive coefficients indexed by n is a rational function of n. The series, if convergent, defines a generalized hypergeometric function, which may then be defined over a wider domain of the argument by analytic continuation. The generalized hypergeometric series is sometimes just called the hypergeometric series, though this term also sometimes just refers to the Gaussian hypergeometric series.
Covariance matrixIn probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
CovarianceEn théorie des probabilités et en statistique, la covariance entre deux variables aléatoires est un nombre permettant de quantifier leurs écarts conjoints par rapport à leurs espérances respectives. Elle s’utilise également pour deux séries de données numériques (écarts par rapport aux moyennes). La covariance de deux variables aléatoires indépendantes est nulle, bien que la réciproque ne soit pas toujours vraie. La covariance est une extension de la notion de variance.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Matrice D de WignerLa matrice D de Wigner est une matrice d'une représentation irréductible des groupes SU(2) et SO(3). Le conjugué complexe de la matrice D est une fonction propre du hamiltonien des rotateurs rigides sphériques et symétriques. Introduite en 1927 par Eugene Wigner, cette matrice est utilisée en mécanique quantique. Soient , , des générateurs d'une algèbre de Lie de SU(2) et SO(3). En mécanique quantique ces trois opérateurs sont les composantes d'un opérateur vectoriel appelé moment angulaire.
Identité trigonométriqueUne identité trigonométrique est une relation impliquant des fonctions trigonométriques, vérifiée pour toutes les valeurs possibles des variables intervenant dans la relation. Ces identités peuvent servir à simplifier une expression comportant des fonctions trigonométriques ou à la transformer (par exemple pour en calculer une primitive). Elles constituent donc une « boîte à outils » utile pour la résolution de problèmes. Les fonctions trigonométriques sont définies géométriquement ou analytiquement.