Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.
Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
WronskienEn analyse mathématique, le wronskien, nommé ainsi en l'honneur de Josef Hoëné-Wronski, est le déterminant d'une famille de solutions d'un système différentiel linéaire homogène y' = ay. À l'aide du wronskien, il est possible de déterminer si cette famille constitue une base de l'espace des solutions. En outre, même sans aucune information sur les solutions, l'équation d'évolution du wronskien est connue. Ceci donne une information quantitative précieuse et offre même une stratégie de résolution pour certaines équations différentielles.
Opérateur différentielEn mathématiques, et plus précisément en analyse, un opérateur différentiel est un opérateur agissant sur des fonctions différentiables. Lorsque la fonction est à une seule variable, l'opérateur différentiel est construit à partir des dérivées ordinaires. Lorsque la fonction est à plusieurs variables, l'opérateur différentiel est construit à partir des dérivées partielles. Un opérateur différentiel agissant sur deux fonctions est appelé opérateur bidifférentiel.
Croissance exponentiellethumb|Comparaison entre une croissance linéaire (en rouge), cubique (en bleu) et exponentielle (en vert) |300x300px La croissance exponentielle d'une quantité est son augmentation au fil du temps selon une loi exponentielle. On l'observe quand la dérivée par rapport au temps de cette quantité (c'est-à-dire son taux de variation instantané) est positive et proportionnelle à la quantité elle-même. Dans la langue courante on emploie souvent, mais improprement, le terme « croissance exponentielle » pour qualifier une augmentation simplement accélérée, quand la dérivée est elle-même croissante.
Fonction de BesselEn mathématiques, et plus précisément en analyse, les fonctions de Bessel, appelées aussi quelquefois fonctions cylindriques, découvertes par le mathématicien suisse Daniel Bernoulli, portent le nom du mathématicien allemand Friedrich Wilhelm Bessel. Bessel développa l'analyse de ces fonctions en 1816 dans le cadre de ses études du mouvement des planètes induit par l'interaction gravitationnelle, généralisant les découvertes antérieures de Bernoulli.
Fonction d'erreurthumb|right|upright=1.4|Construction de la fonction d'erreur réelle. En mathématiques, la fonction d'erreur (aussi appelée fonction d'erreur de Gauss) est une fonction entière utilisée en analyse. Cette fonction se note erf et fait partie des fonctions spéciales. Elle est définie par : La fonction erf intervient régulièrement dans le domaine des probabilités et statistiques, ainsi que dans les problèmes de diffusion (de la chaleur ou de la matière).
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Équation cubiquethumb|right|Une équation cubique admet au plus trois solutions réelles. En mathématiques, une équation cubique est une équation polynomiale de degré 3, de la forme ax + bx + cx + d = 0 avec a non nul, où les coefficients a, b, c et d sont en général supposés réels ou complexes. Les équations cubiques étaient connues des anciens Babyloniens, Grecs, Chinois, Indiens et Égyptiens. On a trouvé des tablettes babyloniennes () avec, en écriture cunéiforme, des tables de calcul de cubes et de racines cubiques.
Équation aux dérivées partiellesEn mathématiques, plus précisément en calcul différentiel, une équation aux dérivées partielles (parfois appelée équation différentielle partielle et abrégée en EDP) est une équation différentielle dont les solutions sont les fonctions inconnues dépendant de plusieurs variables vérifiant certaines conditions concernant leurs dérivées partielles. Une EDP a souvent de très nombreuses solutions, les conditions étant moins strictes que dans le cas d'une équation différentielle ordinaire à une seule variable ; les problèmes comportent souvent des conditions aux limites qui restreignent l'ensemble des solutions.
Constant of integrationIn calculus, the constant of integration, often denoted by (or ), is a constant term added to an antiderivative of a function to indicate that the indefinite integral of (i.e., the set of all antiderivatives of ), on a connected domain, is only defined up to an additive constant. This constant expresses an ambiguity inherent in the construction of antiderivatives. More specifically, if a function is defined on an interval, and is an antiderivative of then the set of all antiderivatives of is given by the functions where is an arbitrary constant (meaning that any value of would make a valid antiderivative).
Suite définie par récurrenceEn mathématiques, une suite définie par récurrence est une suite définie par son (ou ses) premier(s) terme(s) et par une relation de récurrence, qui définit chaque terme à partir du précédent ou des précédents lorsqu'ils existent. Une relation de récurrence est une équation dans laquelle l'expression de plusieurs termes de la suite apparait, par exemple : ou ou ou si l'on se place dans les suites de mots sur l'alphabet : Si la relation de récurrence a une « bonne » présentation, cela permet de calculer l'expression du terme d'indice le plus élevé en fonction de l'expression des autres.
Dérivée partielleEn mathématiques, la dérivée partielle d'une fonction de plusieurs variables est sa dérivée par rapport à l'une de ses variables, les autres étant gardées constantes. C'est une notion de base de l'analyse en dimension , de la géométrie différentielle et de l'analyse vectorielle. La dérivée partielle de la fonction par rapport à la variable est souvent notée . Si est une fonction de et sont les accroissements infinitésimaux de respectivement, alors l'accroissement infinitésimal correspondant de est : Cette expression est la « différentielle totale » de , chaque terme dans la somme étant une « différentielle partielle » de .
LinéaritéLe concept de linéarité est utilisé dans le domaine des mathématiques et dans le domaine de la physique, et par extension dans le langage courant. Les premiers exemples de situations où intervient la linéarité sont les situations de proportionnalité constante entre deux variables : le graphe représentant une variable en fonction de l'autre forme alors une ligne droite qui passe par l'origine. Il ne faut cependant pas confondre linéarité et proportionnalité, car la proportionnalité n'est qu'un cas particulier de la linéarité.