Interpolation numériqueEn analyse numérique (et dans son application algorithmique discrète pour le calcul numérique), l'interpolation est une opération mathématique permettant de remplacer une courbe ou une fonction par une autre courbe (ou fonction) plus simple, mais qui coïncide avec la première en un nombre fini de points (ou de valeurs) donnés au départ. Suivant le type d'interpolation, outre le fait de coïncider en un nombre fini de points ou de valeurs, il peut aussi être demandé à la courbe ou à la fonction construite de vérifier des propriétés supplémentaires.
Interpolation polynomialeEn mathématiques, en analyse numérique, l'interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, p(xi) = yi, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas. Cependant, dans le cas de l'interpolation lagrangienne, par exemple, le choix des points d'interpolation est critique.
Interpolation bicubiquevignette|Illustration de l'interpolation bicubique sur un ensemble de données aléatoires En mathématiques, l'interpolation bicubique est une extension de l'interpolation cubique pour interpoler un ensemble de points distribués sur une grille régulière bidimensionnelle. La surface interpolée est plus lisse que les surfaces correspondantes obtenues par interpolation bilinéaire ou par sélection du plus proche voisin. L'interpolation bicubique peut être accomplie en utilisant soit des polynômes de Lagrange, soit des splines cubiques, soit un algorithme de convolution cubique.
Interpolation linéaireright|300px|thumb|Les points rouges correspondent aux points (xk,yk), et la courbe bleue représente la fonction d'interpolation, composée de segments de droite. L’interpolation linéaire est la méthode la plus simple pour estimer la valeur prise par une fonction continue entre deux points déterminés (interpolation). Elle consiste à utiliser pour cela la fonction affine (de la forme f(x) = m.x + b) passant par les deux points déterminés.
Spline interpolationIn the mathematical field of numerical analysis, spline interpolation is a form of interpolation where the interpolant is a special type of piecewise polynomial called a spline. That is, instead of fitting a single, high-degree polynomial to all of the values at once, spline interpolation fits low-degree polynomials to small subsets of the values, for example, fitting nine cubic polynomials between each of the pairs of ten points, instead of fitting a single degree-ten polynomial to all of them.
Spline cubique d'HermiteOn appelle spline cubique d'Hermite une spline de degré trois, nommée ainsi en hommage à Charles Hermite, permettant de construire un polynôme de degré minimal (le polynôme doit avoir au minimum quatre degrés de liberté et être donc de degré 3) interpolant une fonction en deux points avec ses tangentes. Chaque polynôme se trouve sous la forme suivante : thumb|Les quatre polynômes de base avec ce qui donne le polynôme suivant : Sous cette écriture, il est possible de voir que le polynôme p vérifie : La courbe est déterminée par la position des points et des tangentes.
Diagramme de phaseUn diagramme de phase, ou diagramme de phases, est une représentation graphique utilisée en thermodynamique, généralement à deux ou trois dimensions, représentant les domaines de l'état physique (ou phase) d'un système (corps pur ou mélange de corps purs), en fonction de variables, choisies pour faciliter la compréhension des phénomènes étudiés. Les diagrammes les plus simples concernent un corps pur avec pour variables la température et la pression ; les autres variables souvent utilisées sont l'enthalpie, l'entropie, le volume massique, ainsi que la concentration en masse ou en volume d'un des corps purs constituant un mélange.
Théorème de Helmholtz-HodgeEn mathématiques et en physique, dans le domaine de l’analyse vectorielle, le théorème de Helmholtz-Hodge, également appelé théorème fondamental du calcul vectoriel, assure qu'un champ vectoriel se décompose en une composante « longitudinale » (irrotationnelle) et une composante « transverse » (solénoïdale), soit la somme du gradient d’un champ scalaire et du rotationnel d’un champ vectoriel. Ce résultat possède des applications importantes en électromagnétisme et en mécanique des fluides ; il est également exploité en sismologie.
Modèle d'IsingLe modèle d'Ising est un modèle de physique statistique qui a été adapté à divers phénomènes caractérisés par des interactions locales de particules à deux états. L'exemple principal est le ferromagnétisme pour lequel le modèle d'Ising est un modèle sur réseau de moments magnétiques, dans lequel les particules sont toujours orientées suivant le même axe spatial et ne peuvent prendre que deux valeurs. Ce modèle est parfois appelé modèle de Lenz-Ising en référence aux physiciens Wilhelm Lenz et Ernst Ising.
Asymptotic safety in quantum gravityAsymptotic safety (sometimes also referred to as nonperturbative renormalizability) is a concept in quantum field theory which aims at finding a consistent and predictive quantum theory of the gravitational field. Its key ingredient is a nontrivial fixed point of the theory's renormalization group flow which controls the behavior of the coupling constants in the ultraviolet (UV) regime and renders physical quantities safe from divergences.
Esprit quantiqueL'esprit quantique ou encore la conscience quantique est une hypothèse qui suggère que des phénomènes quantiques, tels l'intrication et la superposition d'états, sont impliqués dans le fonctionnement du cerveau et en particulier, dans l'émergence de la conscience. Cette hypothèse part du principe, controversé, que la physique classique et son déterminisme ne peut expliquer la conscience. Ses fondements théoriques ont été posés dans les années 1960 en sciences mais depuis ses partisans ne sont pas encore parvenus à la démontrer et les hypothèses de l'esprit quantique restent en l'état des spéculations.
Champ solénoïdalthumb|Champ solénoïdal En analyse vectorielle, un champ solénoïdal ou champ incompressible désigne un champ vectoriel dont la divergence est nulle, ou de manière équivalente dont le flot préserve le volume euclidien. L’incompressibilité fait référence à la conservation du volume.
Potts modelIn statistical mechanics, the Potts model, a generalization of the Ising model, is a model of interacting spins on a crystalline lattice. By studying the Potts model, one may gain insight into the behaviour of ferromagnets and certain other phenomena of solid-state physics. The strength of the Potts model is not so much that it models these physical systems well; it is rather that the one-dimensional case is exactly solvable, and that it has a rich mathematical formulation that has been studied extensively.
Phase (thermodynamique)thumb|right|Un système composé d'eau et d'huile, à l'équilibre, est composé de deux phases distinctes (biphasique). En thermodynamique, on utilise la notion de phase pour distinguer les différents états possibles d'un système. Selon le contexte et les auteurs, le mot est utilisé pour désigner plusieurs choses, parfois de natures différentes, mais étroitement liées. Si un système thermodynamique est entièrement homogène, physiquement et chimiquement, on dit qu'il constitue une seule phase.
Groupe de renormalisationEn physique statistique, le groupe de renormalisation est un ensemble de transformations qui permettent de transformer un hamiltonien en un autre hamiltonien par élimination de degrés de liberté tout en laissant la fonction de partition invariante. Il s'agit plus exactement d'un semi-groupe, les transformations n'étant pas inversibles. Le groupe de renormalisation permet de calculer les exposants critiques d'une transition de phase. Il permet aussi de prédire la transition Berezinsky-Kosterlitz-Thouless.
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.