Méthode des éléments finisEn analyse numérique, la méthode des éléments finis (MEF, ou FEM pour finite element method en anglais) est utilisée pour résoudre numériquement des équations aux dérivées partielles. Celles-ci peuvent par exemple représenter analytiquement le comportement dynamique de certains systèmes physiques (mécaniques, thermodynamiques, acoustiques).
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Polynôme de TchebychevEn mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Interpolation polynomialeEn mathématiques, en analyse numérique, l'interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, p(xi) = yi, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas. Cependant, dans le cas de l'interpolation lagrangienne, par exemple, le choix des points d'interpolation est critique.
Heun's methodIn mathematics and computational science, Heun's method may refer to the improved or modified Euler's method (that is, the explicit trapezoidal rule), or a similar two-stage Runge–Kutta method. It is named after Karl Heun and is a numerical procedure for solving ordinary differential equations (ODEs) with a given initial value. Both variants can be seen as extensions of the Euler method into two-stage second-order Runge–Kutta methods.
Polynôme de BernsteinLes polynômes de Bernstein, nommés ainsi en l'honneur du mathématicien russe Sergueï Bernstein (1880-1968), permettent de donner une démonstration constructive et probabilistedu théorème d'approximation de Weierstrass. Ils sont également utilisés dans la formulation générale des courbes de Bézier. Pour un degré m ≥ 0, il y a m + 1 polynômes de Bernstein B, ..., B définis, sur l'intervalle [0 ; 1], par où les sont les coefficients binomiaux. Les m + 1 polynômes de Bernstein forment une base de l'espace vectoriel des polynômes de degré au plus m.
Polynôme d'HermiteEn mathématiques, les polynômes d'Hermite sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite (bien qu'ils aient été définis, sous une autre forme, en premier par Pierre-Simon Laplace en 1810, surtout été étudiés par Joseph-Louis Lagrange lors de ses travaux sur les probabilités puis en détail par Pafnouti Tchebychev six ans avant Hermite). Ils sont parfois décrits comme des polynômes osculateurs.
Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.
Méthode de GalerkineEn mathématiques, dans le domaine de l'analyse numérique, les méthodes de Galerkine sont une classe de méthodes permettant de transformer un problème continu (par exemple une équation différentielle) en un problème discret. Cette approche est attribuée aux ingénieurs russes Ivan Boubnov (1911) et Boris Galerkine (1913). Cette méthode est couramment utilisée dans la méthode des éléments finis. On part de la formulation faible du problème. La solution appartient à un espace fonctionnel satisfaisant des propriétés de régularité bien définies.
Rate equationIn chemistry, the rate law or rate equation for a chemical reaction is a mathematical equation that links the rate of forward reaction with the concentrations or pressures of the reactants and constant parameters (normally rate coefficients and partial reaction orders). For many reactions, the initial rate is given by a power law such as where [\mathrm{A}] and [\mathrm{B}] express the concentration of the species \mathrm{A} and \mathrm{B}, usually in moles per liter (molarity, M).
Méthode sans maillageIn the field of numerical analysis, meshfree methods are those that do not require connection between nodes of the simulation domain, i.e. a mesh, but are rather based on interaction of each node with all its neighbors. As a consequence, original extensive properties such as mass or kinetic energy are no longer assigned to mesh elements but rather to the single nodes. Meshfree methods enable the simulation of some otherwise difficult types of problems, at the cost of extra computing time and programming effort.
Reaction rateThe reaction rate or rate of reaction is the speed at which a chemical reaction takes place, defined as proportional to the increase in the concentration of a product per unit time and to the decrease in the concentration of a reactant per unit time. Reaction rates can vary dramatically. For example, the oxidative rusting of iron under Earth's atmosphere is a slow reaction that can take many years, but the combustion of cellulose in a fire is a reaction that takes place in fractions of a second.
Loi d'Arrheniusvignette|Constante de vitesse en fonction de la température. En cinétique chimique, la loi d'Arrhenius établit la dépendance de la vitesse d'une réaction chimique à la température. Cette loi est énoncée par Svante A. Arrhenius en 1889 dans son article intitulé . Cependant, elle n'est universellement acceptée par ses contemporains que vers 1910. La loi d'Arrhenius est vérifiée expérimentalement par un grand nombre de réactions chimiques ; toutefois, toutes les réactions ne suivent pas cette loi, comme les réactions enzymatiques.
Équation d'EyringL'équation d'Eyring, aussi appelée équation d'Eyring-Polanyi en cinétique chimique, relie la vitesse de réaction à la température. Elle a été établie quasi-simultanément en 1935 par Henry Eyring, M.G. Evans et Michael Polanyi. Cette équation découle de la théorie de l'état de transition (ou théorie du complexe activé) et correspond, contrairement à la loi d'Arrhenius, à un modèle théorique basé sur la thermodynamique statistique.
Stabilité de LiapounovEn mathématiques et en automatique, la notion de stabilité de Liapounov (ou, plus correctement, de stabilité au sens de Liapounov) apparaît dans l'étude des systèmes dynamiques. De manière générale, la notion de stabilité joue également un rôle en mécanique, dans les modèles économiques, les algorithmes numériques, la mécanique quantique, la physique nucléaire Un exemple typique de système stable au sens de Liapounov est celui constitué d'une bille roulant sans frottement au fond d'une coupelle ayant la forme d'une demi-sphère creuse : après avoir été écartée de sa position d'équilibre (qui est le fond de la coupelle), la bille oscille autour de cette position, sans s'éloigner davantage : la composante tangentielle de la force de gravité ramène constamment la bille vers sa position d'équilibre.
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.
Théorie de la stabilitéEn mathématiques, la théorie de la stabilité traite la stabilité des solutions d'équations différentielles et des trajectoires des systèmes dynamiques sous des petites perturbations des conditions initiales. L'équation de la chaleur, par exemple, est une équation aux dérivées partielles stable parce que des petites perturbations des conditions initiales conduisent à des faibles variations de la température à un temps ultérieur en raison du principe du maximum.
Équation chimiqueUne équation chimique est un écrit symbolique qui modélise la transformation de molécules et d'atomes lors d'une réaction chimique. Elle peut se présenter sous plusieurs formes : réactifs → produits (réaction chimique irréversible ; la forme la plus courante dans les livres de chimie); la transformation n'est possible que dans un seul sens. réactifs → produits + énergie (réaction chimique irréversible) réactifs ⇌ produits + énergie (réaction réversible); la transformation directe est limitée par la transformation inverse, simultanée.
Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.