Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Point d'inflexionthumb|Représentation graphique de la fonction x ↦ x montrant un point d'inflexion aux coordonnées (0, 0). thumb|Point d'inflexion de la fonction arc tangente. En mathématiques, et plus précisément en analyse et en géométrie différentielle, un point d'inflexion est un point où s'opère un changement de concavité d'une courbe plane. En un tel point, la tangente traverse la courbe. C'est pourquoi les points d'inflexion, quand on arrive à les déterminer explicitement, aident à bien représenter l'allure de la courbe.
Point colEn mathématiques, un point col ou point-selle () d'une fonction f définie sur un produit cartésien X × Y de deux ensembles X et Y est un point tel que : atteint un maximum en sur Y ; et atteint un minimum en sur X. Certains auteurs inversent les maximum et minimum ( a un minimum en et a un maximum en ), mais cela ne modifie pas qualitativement les résultats (on peut revenir au cas présent par un changement de variables). Le terme point-selle fait référence à la forme de selle de cheval que prend le graphe de la fonction lorsque X et Y sont des intervalles de .
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Matrice jacobienneEn analyse vectorielle, la matrice jacobienne est la matrice des dérivées partielles du premier ordre d'une fonction vectorielle en un point donné. Son nom vient du mathématicien Charles Jacobi. Le déterminant de cette matrice, appelé jacobien, joue un rôle important pour l'intégration par changement de variable et dans la résolution de problèmes non linéaires. Soit F une fonction d'un ouvert de R à valeurs dans R. Une telle fonction est définie par ses m fonctions composantes à valeurs réelles : .
Dérivée partielleEn mathématiques, la dérivée partielle d'une fonction de plusieurs variables est sa dérivée par rapport à l'une de ses variables, les autres étant gardées constantes. C'est une notion de base de l'analyse en dimension , de la géométrie différentielle et de l'analyse vectorielle. La dérivée partielle de la fonction par rapport à la variable est souvent notée . Si est une fonction de et sont les accroissements infinitésimaux de respectivement, alors l'accroissement infinitésimal correspondant de est : Cette expression est la « différentielle totale » de , chaque terme dans la somme étant une « différentielle partielle » de .
Point critique (mathématiques)En analyse à plusieurs variables, un point critique d'une fonction de plusieurs variables, à valeurs numériques, est un point d'annulation de son gradient, c'est-à-dire un point tel que . La valeur prise par la fonction en un point critique s'appelle alors une valeur critique. Les valeurs qui ne sont pas critiques sont appelées valeurs régulières. Les points critiques servent d'intermédiaire pour la recherche des extrémums d'une telle fonction.
Multiplicateur de LagrangeEn mathématiques, et plus particulièrement en analyse, la méthode des multiplicateurs de Lagrange permet de trouver les points stationnaires (maximum, minimum...) d'une fonction dérivable d'une ou plusieurs variables, sous contraintes. On cherche à trouver l'extremum, un minimum ou un maximum, d'une fonction φ de n variables à valeurs dans les nombres réels, ou encore d'un espace euclidien de dimension n, parmi les points respectant une contrainte, de type ψ(x) = 0 où ψ est une fonction du même ensemble de départ que φ.
Point stationnaire350px|thumb|right|Les points stationnaires de la fonction sont marquées par des ronds rouges. Dans ce cas, ce sont des extrema locaux. Les carrés bleus désignent les points d'inflexion. En analyse réelle, un point stationnaire ou point critique d'une fonction dérivable d'une variable réelle est un point de son graphe où sa dérivée s'annule. Visuellement, cela se traduit par un point où la fonction arrête de croître ou de décroître. Pour une fonction de plusieurs variables réelles, un point stationnaire (critique) est un point où le gradient s'annule.
Test de la dérivée premièreEn analyse réelle, le test de la dérivée première permet de déterminer l'allure d'une fonction dérivable en étudiant le signe de sa dérivée. Grâce à ce test, on peut déduire les extrema locaux, le sens de variation de f et les points d'inflexion « horizontaux », permettant ainsi de donner une allure du graphe de la fonction . Soit avec un intervalle ouvert réel (par exemple où et sont des réels). On suppose de plus que dérivable sur .
Fonction de plusieurs variablesEn mathématiques et plus spécialement en analyse vectorielle, une fonction numérique à plusieurs variables réelles est une fonction dont l'ensemble de départ E est une partie du produit cartésien . L'ensemble d'arrivée F peut être ou . Le second cas peut se ramener au premier cas en considérant qu'il s'agit en réalité de p fonctions de dans appelées fonctions coordonnées. La fonction est donc une relation associant à chaque n-uplet x = (x, x, ...
Algorithme du gradientLalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction.
Fonction convexevignette|upright=1.5|droite|Fonction convexe. En mathématiques, une fonction réelle d'une variable réelle est dite convexe : si quels que soient deux points et du graphe de la fonction, le segment est entièrement situé au-dessus du graphe, c’est-à-dire que la courbe représentative de la fonction se situe toujours en dessous de ses cordes ; ou si l'épigraphe de la fonction (l'ensemble des points qui sont au-dessus de son graphe) est un ensemble convexe ; ou si vu d'en dessous, le graphe de la fonction est en bosse.
Fonction objectifvignette|comparaison de certains substituts de la fonction de perte Le terme fonction objectif ou fonction économique, est utilisé en optimisation mathématique et en recherche opérationnelle pour désigner une fonction qui sert de critère pour déterminer la meilleure solution à un problème d'optimisation. Elle associe une valeur à une instance d'un problème d'optimisation. Le but du problème d'optimisation est alors de minimiser ou de maximiser cette fonction jusqu'à l'optimum, par différents procédés comme l'algorithme du simplexe.
DiscriminantEn mathématiques, le discriminant noté , ou le réalisant noté , est une notion algébrique. Il est utilisé pour résoudre des équations du second degré. Il se généralise pour des polynômes de degré > 0 quelconque et dont les coefficients sont choisis dans des ensembles munis d'une addition et d'une multiplication. Le discriminant apporte dans ce cadre une information sur l'existence ou l'absence de racine multiple. Le discriminant est utilisé dans d'autres domaines que celui de l'étude des polynômes.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Factorisation de CholeskyLa factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Symboles de ChristoffelEn mathématiques et en physique, les symboles de Christoffel (ou coefficients de Christoffel, ou coefficients de connexion) sont une expression de la connexion de Levi-Civita dérivée du tenseur métrique. Les symboles de Christoffel sont utilisés dans les calculs pratiques de la géométrie de l'espace : ce sont des outils de calculs concrets, par exemple pour déterminer les géodésiques des variétés riemanniennes, mais en contrepartie leur manipulation est relativement longue, notamment du fait du nombre de termes impliqués.
Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.