Commande prédictiveLa commande prédictive (ou compensation ou correction anticipatrice) est une technique de commande avancée de l’automatique. Elle a pour objectif de commander des systèmes industriels complexes. Le principe de cette technique est d'utiliser un modèle dynamique du processus à l'intérieur du contrôleur en temps réel afin d'anticiper le futur comportement du procédé. La commande prédictive fait partie des techniques de contrôle à modèle interne (IMC: Internal Model Controler).
Stochastic controlStochastic control or stochastic optimal control is a sub field of control theory that deals with the existence of uncertainty either in observations or in the noise that drives the evolution of the system. The system designer assumes, in a Bayesian probability-driven fashion, that random noise with known probability distribution affects the evolution and observation of the state variables. Stochastic control aims to design the time path of the controlled variables that performs the desired control task with minimum cost, somehow defined, despite the presence of this noise.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Théorie du contrôleEn mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques paramétrés en fonction des trajectoires de leurs paramètres. On se place dans un ensemble, l'espace d'état sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques caractérisant l'évolution de variables (dites variables d'état) au sein de cet ensemble. Le déroulement du temps est modélisé par un entier .
Loi de mélangeEn probabilité et en statistiques, une loi de mélange est la loi de probabilité d'une variable aléatoire s'obtenant à partir d'une famille de variables aléatoires de la manière suivante : une variable aléatoire est choisie au hasard parmi la famille de variables aléatoires donnée, puis la valeur de la variable aléatoire sélectionnée est réalisée. Les variables aléatoires sous-jacentes peuvent être des nombres réels aléatoires, ou des vecteurs aléatoires (chacun ayant la même dimension), auquel cas la répartition du mélange est une répartition à plusieurs variables.
Série géométriquethumb|Preuve sans mots de l'égalité1/2 + 1/4 + 1/8 + 1/16 + ⋯ = 1 thumb|Illustration de l'égalité 1/4 + 1/16 + 1/64 + 1/256 + ⋯ = 1/3 :chacun des carrés violets mesure 1/4 de la surface du grand carré le plus proche (1/2× = 1/4, 1/4×1/4 = 1/16, etc.). Par ailleurs, la somme des aires des carrés violets est égale à un tiers de la superficie du grand carré. En mathématiques, la série géométrique est l'un des exemples de série numérique les plus simples.
Test de convergenceEn mathématiques, les tests de convergence sont des méthodes de test de la convergence, de la convergence absolue ou de la divergence d'une série . Appliqués aux séries entières, ils donnent des moyens de déterminer leur rayon de convergence. Pour que la série converge, il est nécessaire que . Par conséquent, si cette limite est indéfinie ou non nulle, alors la série diverge. La condition n'est pas suffisante, et, si la limite des termes est nulle, on ne peut rien conclure. Toute série absolument convergente converge.
Feed forward (control)A feed forward (sometimes written feedforward) is an element or pathway within a control system that passes a controlling signal from a source in its external environment to a load elsewhere in its external environment. This is often a command signal from an external operator. A control system which has only feed-forward behavior responds to its control signal in a pre-defined way without responding to the way the load reacts; it is in contrast with a system that also has feedback, which adjusts the input to take account of how it affects the load, and how the load itself may vary unpredictably; the load is considered to belong to the external environment of the system.
Fonction de Wignervignette| Fonction de Wigner d'un état du type du "chat de Schrödinger" (mélange de 2 états opposés) La fonction de Wigner (également appelée distribution de quasi-probabilité de Wigner) a été introduite par Eugene Wigner en 1932 pour étudier les corrections quantiques à la mécanique statistique classique. L'objectif était de lier la fonction d'onde qui apparaît dans l'équation de Schrödinger à une distribution de probabilité dans l'espace des phases.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Matrix splittingIn the mathematical discipline of numerical linear algebra, a matrix splitting is an expression which represents a given matrix as a sum or difference of matrices. Many iterative methods (for example, for systems of differential equations) depend upon the direct solution of matrix equations involving matrices more general than tridiagonal matrices. These matrix equations can often be solved directly and efficiently when written as a matrix splitting. The technique was devised by Richard S. Varga in 1960.
Loi du χ² non centréeEn théorie des probabilités et en statistique, la loi du χ non centrée est une loi de probabilité qui généralise la loi du χ2. Cette loi apparait lors de tests statistiques, par exemple pour le maximum de vraisemblance. Soit X, k variables aléatoires indépendantes de loi normale de moyennes et variances . Alors la variable aléatoire suit une loi du χ non centrée. Elle dépend de deux paramètres : k qui spécifie le nombre de degrés de liberté (c'est-à-dire le nombre de X), et λ qui est en lien avec la moyenne des variables X par la formule : est parfois appelé le paramètre de décentralisation.
Loi géométriqueEn théorie des probabilités et en statistique, la loi géométrique désigne, selon la convention choisie, l'une des deux lois de probabilité suivantes : la loi du nombre X d'épreuves de Bernoulli indépendantes de probabilité de succès p ∈ ]0,1[ (ou q = 1 – p d'échec) nécessaire pour obtenir le premier succès. X est la variable aléatoire donnant le rang du premier succès. Le support de la loi est alors {1, 2, 3, ...}. La loi du nombre Y = X – 1 d'échecs avant le premier succès. Le support de la loi est alors {0, 1, 2, 3, .
Règle de d'Alembertvignette|Jean Le Rond d'Alembert, mathématicien français. La règle de d'Alembert (ou critère de d'Alembert), doit son nom au mathématicien français Jean le Rond d'Alembert. C'est un test de convergence pour une série à termes positifs. Dans certains cas, elle permet d'établir la convergence absolue d'une série à termes complexes ou vectoriels, ou au contraire sa divergence. Soit (u) une suite de réels strictement positifs. On note et les limites inférieure et supérieure des quotients successifs : Si , alors la série de terme général u converge.
Résolution de problèmevignette|Résolution d'un problème mathématique. La résolution de problème est le processus d'identification puis de mise en œuvre d'une solution à un problème. Analyse de cause racine (ACR, Root cause analysis) : cette démarche part du constat qu'il est plus judicieux de traiter les causes d'un problème que d'en traiter les symptômes immédiats. Puisqu'analyser les causes d'un problème permet d'en déterminer une solution définitive, et donc, empêcher qu'il ne se reproduise de nouveau.
Algorithme du gradient stochastiqueL'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. À la fois l'estimation statistique et l'apprentissage automatique s'intéressent au problème de la minimisation d'une fonction objectif qui a la forme d'une somme : où le paramètre qui minimise doit être estimé. Chacune des fonctions est généralement associée avec la -ème observation de l'ensemble des données (utilisées pour l'apprentissage).
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
RésultantEn mathématiques, le résultant, ou déterminant de Sylvester, est une notion qui s'applique à deux polynômes. Elle est utilisée en théorie de Galois, en théorie algébrique des nombres, en géométrie algébrique et dans bien d'autres domaines utilisant les polynômes. Le résultant de deux polynômes est un scalaire qui est nul si, et seulement si, les deux polynômes ont un facteur commun. Il peut être calculé à partir des coefficients des polynômes à l'aide d'un déterminant.
Algorithme du gradientLalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction.
Algorithme d'Euclide étenduEn mathématiques, l'algorithme d'Euclide étendu est une variante de l'algorithme d'Euclide. À partir de deux entiers a et b, il calcule non seulement leur plus grand commun diviseur (PGCD), mais aussi un de leurs couples de coefficients de Bézout, c'est-à-dire deux entiers u et v tels que au + bv = PGCD(a, b). Quand a et b sont premiers entre eux, u est alors l'inverse pour la multiplication de a modulo b (et v est de la même façon l'inverse modulaire de b, modulo a), ce qui est un cas particulièrement utile.