Méthodes de Runge-KuttaLes méthodes de Runge-Kutta sont des méthodes d'analyse numérique d'approximation de solutions d'équations différentielles. Elles ont été nommées ainsi en l'honneur des mathématiciens Carl Runge et Martin Wilhelm Kutta, lesquels élaborèrent la méthode en 1901. Ces méthodes reposent sur le principe de l'itération, c'est-à-dire qu'une première estimation de la solution est utilisée pour calculer une seconde estimation, plus précise, et ainsi de suite. Considérons le problème suivant : que l'on va chercher à résoudre en un ensemble discret t < t < .
Vitesse de convergence des suitesEn analyse numérique — une branche des mathématiques — on peut classer les suites convergentes en fonction de leur vitesse de convergence vers leur point limite. C'est une manière d'apprécier l'efficacité des algorithmes qui les génèrent. Les suites considérées ici sont convergentes sans être stationnaires (tous leurs termes sont même supposés différents du point limite). Si une suite est stationnaire, tous ses éléments sont égaux à partir d'un certain rang et il est alors normal de s'intéresser au nombre d'éléments différents du point limite.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Accélération de suiteEn mathématiques, laccélération de suite est une méthode de transformation de suites ou de série numérique visant à améliorer la vitesse de convergence d'une série. Des techniques d'accélération sont souvent utilisées en analyse numérique, afin d'améliorer la rapidité de méthodes d'intégration numérique ou obtenir des identités sur des fonctions spéciales. Par exemple, la transformation d'Euler appliquée à la série hypergéométrique permet de retrouver plusieurs identités connues.
Commande optimaleLa théorie de la commande optimale permet de déterminer la commande d'un système qui minimise (ou maximise) un critère de performance, éventuellement sous des contraintes pouvant porter sur la commande ou sur l'état du système. Cette théorie est une généralisation du calcul des variations. Elle comporte deux volets : le principe du maximum (ou du minimum, suivant la manière dont on définit l'hamiltonien) dû à Lev Pontriaguine et à ses collaborateurs de l'institut de mathématiques Steklov , et l'équation de Hamilton-Jacobi-Bellman, généralisation de l'équation de Hamilton-Jacobi, et conséquence directe de la programmation dynamique initiée aux États-Unis par Richard Bellman.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Matrix splittingIn the mathematical discipline of numerical linear algebra, a matrix splitting is an expression which represents a given matrix as a sum or difference of matrices. Many iterative methods (for example, for systems of differential equations) depend upon the direct solution of matrix equations involving matrices more general than tridiagonal matrices. These matrix equations can often be solved directly and efficiently when written as a matrix splitting. The technique was devised by Richard S. Varga in 1960.
Méthode sans maillageIn the field of numerical analysis, meshfree methods are those that do not require connection between nodes of the simulation domain, i.e. a mesh, but are rather based on interaction of each node with all its neighbors. As a consequence, original extensive properties such as mass or kinetic energy are no longer assigned to mesh elements but rather to the single nodes. Meshfree methods enable the simulation of some otherwise difficult types of problems, at the cost of extra computing time and programming effort.
Formulation implicite ou explicite d'un problème de dynamiqueEn simulation numérique, un problème dépendant du temps peut être formulé de manière implicite ou explicite. Un problème dépendant du temps décrit une situation qui évolue ; le système est modélisé à différents instants t discrets appelés « pas de temps ». La méthode explicite consiste à déterminer la solution à t + Δt en fonction de la valeur de la fonction en t. Si la fonction à évaluer s'appelle y(t), alors le problème se formule de la manière suivante : y(t + Δt) = F(y(t)). La méthode d'Euler est une méthode explicite.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Transformation de suiteEn mathématiques, une transformation de suite est un opérateur défini sur un espace donné de suites (un espace de suites). Les transformations de suites comptent des applications linéaires telles que la convolution avec une autre suite et la sommation d'une suite et, plus généralement, sont définies pour l'accélération de suites et de séries, qui vise à augmenter la vitesse de convergence d'une suite ou d'une série à convergence lente.
Connexion (mathématiques)En géométrie différentielle, la connexion est un outil pour réaliser le transport parallèle. Il existe plusieurs présentations qui dépendent de l'utilisation faite. Cette notion a été développée au début des années 1920 par Élie Cartan et Hermann Weyl (avec comme cas particulier celle de connexion affine), puis reformulée en 1951 par Charles Ehresmann et Jean-Louis Koszul. Connexion de Koszul La connexion de Koszul est un opérateur sur des espaces de sections.
Théorie du contrôleEn mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques paramétrés en fonction des trajectoires de leurs paramètres. On se place dans un ensemble, l'espace d'état sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques caractérisant l'évolution de variables (dites variables d'état) au sein de cet ensemble. Le déroulement du temps est modélisé par un entier .
Constrained optimizationIn mathematical optimization, constrained optimization (in some contexts called constraint optimization) is the process of optimizing an objective function with respect to some variables in the presence of constraints on those variables. The objective function is either a cost function or energy function, which is to be minimized, or a reward function or utility function, which is to be maximized.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Forme de connexionEn géométrie différentielle, une 1-forme de connexion est une forme différentielle sur un -fibré principal qui vérifie certains axiomes. La donnée d'une forme de connexion permet de parler, entre autres, de courbure, de torsion, de dérivée covariante, de relevé horizontal, de transport parallèle, d'holonomie et de théorie de jauge. La notion de forme de connexion est intimement reliée à la notion de connexion d'Ehresmann. Soient : un groupe de Lie ; l'élément identité de ; l'algèbre de Lie de ; la représentation adjointe de sur ; une variété différentielle ; un -fibré principal sur .
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.
Connection (principal bundle)In mathematics, and especially differential geometry and gauge theory, a connection is a device that defines a notion of parallel transport on the bundle; that is, a way to "connect" or identify fibers over nearby points. A principal G-connection on a principal G-bundle P over a smooth manifold M is a particular type of connection which is compatible with the action of the group G. A principal connection can be viewed as a special case of the notion of an Ehresmann connection, and is sometimes called a principal Ehresmann connection.
Connexion de KoszulEn géométrie différentielle, une connexion (de Koszul) est un opérateur sur les sections d'un fibré vectoriel. Cette notion a été introduite par Jean-Louis Koszul en 1950 et formalise le transport parallèle de vecteurs le long d'une courbe en termes d'équation différentielle ordinaire. Les connexions sont des objets localement définis auxquels sont associées les notions de courbure et de torsion. L'un des exemples les plus simples de connexions de Koszul sans torsion est la connexion de Levi-Civita naturellement définie sur le fibré tangent de toute variété riemannienne.