Opérateur laplacienL'opérateur laplacien, ou simplement le laplacien, est l'opérateur différentiel défini par l'application de l'opérateur gradient suivie de l'application de l'opérateur divergence : Intuitivement, il combine et relie la description statique d'un champ (décrit par son gradient) aux effets dynamiques (la divergence) de ce champ dans l'espace et le temps. C'est l'exemple le plus simple et le plus répandu d'opérateur elliptique.
Équation aux dérivées partiellesEn mathématiques, plus précisément en calcul différentiel, une équation aux dérivées partielles (parfois appelée équation différentielle partielle et abrégée en EDP) est une équation différentielle dont les solutions sont les fonctions inconnues dépendant de plusieurs variables vérifiant certaines conditions concernant leurs dérivées partielles. Une EDP a souvent de très nombreuses solutions, les conditions étant moins strictes que dans le cas d'une équation différentielle ordinaire à une seule variable ; les problèmes comportent souvent des conditions aux limites qui restreignent l'ensemble des solutions.
Équation des ondesL' ou est une équation aux dérivées partielles en physique qui régit la propagation d'une onde. C'est une équation vérifiée par de nombreux phénomènes ondulatoires de la vie courante comme le son ou la lumière. avec : l'opérateur laplacien ; l'onde vectorielle; une constante, vitesse de propagation de dans le milieu considéré ; L'utilisation du laplacien permet de s'affranchir du choix d'un système de coordonnées. avec : l'opérateur de dérivée partielle seconde en appliqué sur ; , les trois variables cartésiennes de l'espace, et celle du temps.
Fonction harmoniqueEn mathématiques, une fonction harmonique est une fonction qui satisfait l'équation de Laplace. Un problème classique concernant les fonctions harmoniques est le problème de Dirichlet : étant donné une fonction continue définie sur la frontière d'un ouvert, peut-on la prolonger par une fonction qui soit harmonique en tout point de l'ouvert ? L'équation est appelée équation de Laplace. Une fonction harmonique est donc, par définition, une solution de cette équation. Les fonctions constantes sont harmoniques sur .
Harmonique sphériqueEn mathématiques, les harmoniques sphériques sont des fonctions harmoniques particulières, c'est-à-dire des fonctions dont le laplacien est nul. Les harmoniques sphériques sont particulièrement utiles pour résoudre des problèmes invariants par rotation, car elles sont les vecteurs propres de certains opérateurs liés aux rotations. Les polynômes harmoniques P(x,y,z) de degré l forment un espace vectoriel de dimension 2 l + 1, et peuvent s'exprimer en coordonnées sphériques (r, θ, φ) comme des combinaisons linéaires des (2 l + 1) fonctions : avec .
Distribution de DiracEn mathématiques, plus précisément en analyse, la distribution de Dirac, aussi appelée par abus de langage fonction δ de Dirac, introduite par Paul Dirac, peut être informellement considérée comme une fonction qui prend une « valeur » infinie en 0, et la valeur zéro partout ailleurs, et dont l'intégrale sur R est égale à 1. La représentation graphique de la « fonction » δ peut être assimilée à l'axe des abscisses en entier et le demi axe des ordonnées positives.
Équation de la chaleurEn mathématiques et en physique théorique, l'équation de la chaleur est une équation aux dérivées partielles parabolique, pour décrire le phénomène physique de conduction thermique, introduite initialement en 1807 par Joseph Fourier, après des expériences sur la propagation de la chaleur, suivies par la modélisation de l'évolution de la température avec des séries trigonométriques, appelés depuis séries de Fourier et transformées de Fourier, permettant une grande amélioration à la modélisation mathématique
Équation de PoissonEn analyse vectorielle, l'équation de Poisson (ainsi nommée en l'honneur du mathématicien et physicien français Siméon Denis Poisson) est l'équation aux dérivées partielles elliptique du second ordre suivante : où est l'opérateur laplacien et est une distribution généralement donnée. Sur un domaine borné de et de frontière régulière, le problème de trouver à partir de et satisfaisant certaines conditions aux limites appropriées est un problème bien posé : la solution existe et est unique.
Fonction de GreenEn mathématiques et en physique, une fonction de Green est une solution (également appelée solution élémentaire ou solution fondamentale) d'une équation différentielle linéaire à coefficients constants, ou d'une équation aux dérivées partielles linéaire à coefficients constants. Ces « fonctions » de Green, qui se trouvent être le plus souvent des distributions, ont été introduites par George Green en 1828 pour les besoins de l'électromagnétisme. Le mémoire de Green restera confidentiel jusqu'à sa republication en trois parties, à partir de 1850.
Série de Fouriervignette|250px|Les quatre premières sommes partielles de la série de Fourier pour un signal carré. vignette|250px|Le premier graphe donne l'allure du graphe d'une fonction périodique ; l'histogramme donne les valeurs des modules des coefficients de Fourier correspondant aux différentes fréquences. En analyse mathématique, les séries de Fourier sont un outil fondamental dans l'étude des fonctions périodiques. C'est à partir de ce concept que s'est développée la branche des mathématiques connue sous le nom d'analyse harmonique.
Équation de Helmholtzvignette|Application de l'équation de Helmholtz. Léquation de Helmholtz (d'après le physicien Hermann von Helmholtz) est une équation aux dérivées partielles elliptique qui apparaît lorsque l'on cherche des solutions harmoniques de l'équation de propagation des ondes de D'Alembert, appelées « modes propres », sur un domaine : Pour que le problème mathématique soit bien posé, il faut spécifier une condition aux limites sur le bord du domaine, par exemple : une condition de Dirichlet, une condition de Neumann, un mélange des deux précédentes etc.
Coordonnées sphériquesvignette|Illustration de la convention de l'article. La position du point P est définie par la distance et par les angles (colatitude) et (longitude).|alt= On appelle coordonnées sphériques divers systèmes de coordonnées orthogonales de l'espace analogues aux coordonnées polaires du plan. Un point de l'espace est repéré dans ces systèmes par la distance à une origine (le pôle) et par deux angles. Ils sont d'emploi courant pour le repérage géographique : l'altitude, la latitude et la longitude sont une variante de ces coordonnées.
Problème aux limitesEn analyse, un problème aux limites est constitué d'une équation différentielle (ou plus généralement aux dérivées partielles) dont on recherche une solution prenant de plus des valeurs imposées en des limites du domaine de résolution. Contrairement au problème analogue dit de Cauchy, où une ou plusieurs conditions en un même endroit sont imposées (typiquement la valeur de la solution et de ses dérivées successives en un point), auquel le théorème de Cauchy-Lipschitz apporte une réponse générale, les problèmes aux limites sont souvent des problèmes difficiles, et dont la résolution peut à chaque fois conduire à des considérations différentes.
Système de coordonnées curvilignesUn système de coordonnées curvilignes est une façon d'attribuer à chaque point du plan ou de l'espace un ensemble de nombres. Soit un point de l'espace dont les coordonnées sont notées . Un système de coordonnées quelconques est obtenu en se donnant trois fonctions arbitraires des paramètres , telles que ; ces fonctions sont choisies le plus souvent continues, et même différentiables. Les points correspondant à deux des trois coordonnées constantes décrivent une ligne de coordonnées.
Fonction de BesselEn mathématiques, et plus précisément en analyse, les fonctions de Bessel, appelées aussi quelquefois fonctions cylindriques, découvertes par le mathématicien suisse Daniel Bernoulli, portent le nom du mathématicien allemand Friedrich Wilhelm Bessel. Bessel développa l'analyse de ces fonctions en 1816 dans le cadre de ses études du mouvement des planètes induit par l'interaction gravitationnelle, généralisant les découvertes antérieures de Bernoulli.
Principe de superpositionOn dit qu'un système de type entrée-sortie est linéaire ou relève du principe de superposition si: à la somme de deux entrées quelconques correspond la somme des deux sorties correspondantes, à un multiple d'une entrée quelconque correspond le même multiple de la sortie correspondante. Dans le domaine des systèmes physiques et mécaniques, on appelle souvent l'entrée excitation et la sortie réponse.
Coordonnées cylindriquesUn système de est un système de coordonnées curvilignes orthogonales qui généralise à l'espace celui des coordonnées polaires du plan en y ajoutant une troisième coordonnée, généralement notée z, qui mesure la hauteur d'un point par rapport au plan repéré par les coordonnées polaires (de la même manière que l'on étend le système de coordonnées cartésiennes de deux à trois dimensions). Les coordonnées cylindriques servent à indiquer la position d'un point dans l'espace. Les coordonnées cylindriques ne servent pas pour les vecteurs.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Pierre-Simon de LaplacePierre-Simon de Laplace ou Pierre-Simon Laplace, comte Laplace, puis de Laplace, né le à Beaumont-en-Auge et mort le à Paris, est un mathématicien, astronome, physicien et homme politique français. Laplace est l'un des principaux scientifiques de la période napoléonienne. Il a apporté des contributions fondamentales dans différents champs des mathématiques, de l'astronomie et de la théorie des probabilités. Il a été l'un des scientifiques les plus influents de son temps, notamment par son affirmation du déterminisme.
Séparation des variablesEn mathématiques, la séparation des variables constitue l'une des méthodes de résolution des équations différentielles partielles et ordinaires, lorsque l'algèbre permet de réécrire l'équation de sorte que chacune des deux variables apparaisse dans un membre distinct de l'équation. Supposons qu'une équation différentielle puisse être écrite de la forme suivante et pour tout x : que l'on peut écrire plus simplement en identifiant : Tant que h(y) ≠ 0, on peut réécrire les termes de l'équation pour obtenir : séparant donc les variables x et y.