Function of a real variableIn mathematical analysis, and applications in geometry, applied mathematics, engineering, and natural sciences, a function of a real variable is a function whose domain is the real numbers , or a subset of that contains an interval of positive length. Most real functions that are considered and studied are differentiable in some interval. The most widely considered such functions are the real functions, which are the real-valued functions of a real variable, that is, the functions of a real variable whose codomain is the set of real numbers.
Théorème des accroissements finisEn analyse, le théorème des accroissements finis (en abrégé : TAF) est à la fois une généralisation et un corollaire du théorème de Rolle. Pour toute fonction dérivable d'une variable réelle, son taux d'accroissement entre deux valeurs est réalisable comme pente d'une des tangentes à son graphe. Graphiquement, le théorème des accroissements finis indique que, pour toute droite sécante en deux points à une courbe différentiable, il existe, entre ces deux points, une tangente parallèle à la sécante.
Approximation affineEn mathématiques, une approximation affine est une approximation d'une fonction au voisinage d'un point à l'aide d'une fonction affine. Une approximation affine sert principalement à simplifier un problème dont on peut obtenir une solution approchée. Deux façons classiques d'obtenir une approximation affine de fonction passent par l'interpolation ou le développement limité à l’ordre 1.
Fonction de plusieurs variablesEn mathématiques et plus spécialement en analyse vectorielle, une fonction numérique à plusieurs variables réelles est une fonction dont l'ensemble de départ E est une partie du produit cartésien . L'ensemble d'arrivée F peut être ou . Le second cas peut se ramener au premier cas en considérant qu'il s'agit en réalité de p fonctions de dans appelées fonctions coordonnées. La fonction est donc une relation associant à chaque n-uplet x = (x, x, ...
Intégration par partiesEn mathématiques, l'intégration par parties (parfois abrégée en IPP) est une méthode qui permet de transformer l'intégrale d'un produit de fonctions en d'autres intégrales. Elle est fréquemment utilisée pour calculer une intégrale (ou une primitive) d'un produit de fonctions. Cette formule peut être considérée comme une version intégrale de la règle du produit. Le mathématicien Brook Taylor a découvert l'intégration par parties, publiant d'abord l'idée en 1715.
Fonction régulière non analytiqueEn mathématiques, les fonctions régulières (i.e. les fonctions indéfiniment dérivables) et les fonctions analytiques sont deux types courants et d'importance parmi les fonctions. Si on peut prouver que toute fonction analytique réelle est régulière, la réciproque est fausse. Une des applications des fonctions régulières à support compact est la construction de fonctions régularisantes, qui sont utilisées dans la théorie des fonctions généralisées, telle la théorie des distributions de Laurent Schwartz.
Sine and cosineIn mathematics, sine and cosine are trigonometric functions of an angle. The sine and cosine of an acute angle are defined in the context of a right triangle: for the specified angle, its sine is the ratio of the length of the side that is opposite that angle to the length of the longest side of the triangle (the hypotenuse), and the cosine is the ratio of the length of the adjacent leg to that of the hypotenuse. For an angle , the sine and cosine functions are denoted simply as and .
Différence finieEn mathématiques, et plus précisément en analyse, une différence finie est une expression de la forme f(x + b) − f(x + a) (où f est une fonction numérique) ; la même expression divisée par b − a s'appelle un taux d'accroissement (ou taux de variation), et il est possible, plus généralement, de définir de même des différences divisées. L'approximation des dérivées par des différences finies joue un rôle central dans les méthodes des différences finies utilisées pour la résolution numérique des équations différentielles, tout particulièrement pour les problèmes de conditions aux limites.
Décomposition en éléments simplesEn mathématiques, la décomposition en éléments simples d'une fraction rationnelle (parfois appelée décomposition en fractions partielles) est son expression comme somme d'un polynôme et de fractions J/H où H est un polynôme irréductible et J un polynôme de degré strictement inférieur à celui de H. Cette décomposition est utilisée dans le calcul intégral pour faciliter la recherche des primitives de la fonction rationnelle associée. Elle est aussi utilisée pour calculer des transformées de Laplace inverses.
Fonction concaveEn mathématiques, une fonction f est dite concave lorsque la fonction opposée –f est convexe. Le fait que l'on préfère commencer par définir la notion de fonction convexe et d'en déduire celle de fonction concave trouve son origine dans le fait que l'on définit aisément la notion d'ensemble convexe, alors que celle d'« ensemble concave » est moins naturelle. On définit alors les fonctions convexes comme celles ayant un épigraphe convexe (les fonctions concaves ont un hypographe convexe).
Fonction transcendanteEn mathématiques, une fonction ou une série formelle est dite transcendante si elle n'est pas algébrique, c'est-à-dire si elle n'est pas solution d'une équation polynomiale à coefficients polynomiaux par rapport à ses arguments. Cette notion est donc, au même titre que celle de nombre transcendant, un cas particulier de celle d'élément transcendant d'une algèbre sur un anneau commutatif, l'algèbre et l'anneau considérés étant ici soit les fonctions de certaines variables (à valeurs dans un anneau commutatif R) et les fonctions polynomiales en ces variables (à coefficients dans R), soit les séries formelles et les polynômes (en une ou plusieurs indéterminées).
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Multi-indiceEn mathématiques, les multi-indices généralisent la notion d'indice entier en permettant d'envisager plusieurs variables entières pour une indexation. L'utilisation des multi-indices a pour but de simplifier les formules qu'on rencontre dans le calcul à plusieurs variables, que ce soit pour le calcul polynomial ou en analyse vectorielle. Un multi-indice de taille n est un vecteur à coefficients entiers positifs.
Formule intégrale de Cauchyvignette|Illustration de la formule intégrale de Cauchy en analyse complexe La formule intégrale de Cauchy, due au mathématicien Augustin Louis Cauchy, est un point essentiel de l'analyse complexe. Elle exprime le fait que la valeur en un point d'une fonction holomorphe est complètement déterminée par les valeurs qu'elle prend sur un chemin fermé contenant (c'est-à-dire entourant) ce point. Elle peut aussi être utilisée pour exprimer sous forme d'intégrales toutes les dérivées d'une fonction holomorphe.
Série de Taylorthumb|Brook Taylor, dont la série porte le nom. En mathématiques, et plus précisément en analyse, la série de Taylor au point d'une fonction (réelle ou complexe) indéfiniment dérivable en ce point, appelée aussi le développement en série de Taylor de en , est une série entière approchant la fonction autour de , construite à partir de et de ses dérivées successives en . Elles portent le nom de Brook Taylor, qui les a introduites en 1715.
Forme linéaireEn algèbre linéaire, une forme linéaire sur un espace vectoriel est une application linéaire sur son corps de base. En dimension finie, elle peut être représentée par une matrice ligne qui permet d’associer à son noyau une équation cartésienne. Dans le cadre du calcul tensoriel, une forme linéaire est aussi appelée covecteur, en lien avec l’action différente des matrices de changement de base.
Calcul différentielalt=|vignette| Le graphe d'une fonction arbitraire (bleu). Graphiquement, la dérivée de en est la pente de la droite orange (tangente à la courbe en ). En mathématiques, le calcul différentiel est un sous-domaine de l'analyse qui étudie les variations locales des fonctions. C'est l'un des deux domaines traditionnels de l'analyse, l'autre étant le calcul intégral, utilisé notamment pour calculer l'aire sous une courbe.
Fonction (mathématiques)vignette|Diagramme de calcul pour la fonction En mathématiques, une fonction permet de définir un résultat (le plus souvent numérique) pour chaque valeur d’un ensemble appelé domaine. Ce résultat peut être obtenu par une suite de calculs arithmétiques ou par une liste de valeurs, notamment dans le cas de relevé de mesures physiques, ou encore par d’autres procédés comme les résolutions d’équations ou les passages à la limite. Le calcul effectif du résultat ou son approximation repose éventuellement sur l’élaboration de fonction informatique.
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.