Série temporellethumb|Exemple de visualisation de données montrant une tendances à moyen et long terme au réchauffement, à partir des séries temporelles de températures par pays (ici regroupés par continents, du nord au sud) pour les années 1901 à 2018. Une série temporelle, ou série chronologique, est une suite de valeurs numériques représentant l'évolution d'une quantité spécifique au cours du temps. De telles suites de variables aléatoires peuvent être exprimées mathématiquement afin d'en analyser le comportement, généralement pour comprendre son évolution passée et pour en prévoir le comportement futur.
Processus autorégressifUn processus autorégressif est un modèle de régression pour séries temporelles dans lequel la série est expliquée par ses valeurs passées plutôt que par d'autres variables. Un processus autorégressif d'ordre p, noté AR(p) est donné par : où sont les paramètres du modèle, est une constante et un bruit blanc. En utilisant l'opérateur des retards, on peut l'écrire : Un processus autorégressif d'ordre 1 s'écrit : On peut formuler le processus AR(1) de manière récursive par rapport aux conditions précédentes : En remontant aux valeurs initiales, on aboutit à : Il est à noter que les sommes vont ici jusqu'à l'infini.
ARMAEn statistique, les modèles ARMA (modèles autorégressifs et moyenne mobile), ou aussi modèle de Box-Jenkins, sont les principaux modèles de séries temporelles. Étant donné une série temporelle , le modèle ARMA est un outil pour comprendre et prédire, éventuellement, les valeurs futures de cette série. Le modèle est composé de deux parties : une part autorégressive (AR) et une part moyenne-mobile (MA). Le modèle est généralement noté ARMA(,), où est l'ordre de la partie AR et l'ordre de la partie MA.
Autoregressive integrated moving averageIn statistics and econometrics, and in particular in time series analysis, an autoregressive integrated moving average (ARIMA) model is a generalization of an autoregressive moving average (ARMA) model. To better comprehend the data or to forecast upcoming series points, both of these models are fitted to time series data. ARIMA models are applied in some cases where data show evidence of non-stationarity in the sense of mean (but not variance/autocovariance), where an initial differencing step (corresponding to the "integrated" part of the model) can be applied one or more times to eliminate the non-stationarity of the mean function (i.
Vecteur Autoregressif (VAR)Le modèle à Vecteur Autoregressif (VAR) est un modèle économique qui permet de capturer les interdépendances entre plusieurs séries temporelles. Il s'agit de la principale catégorie de modèle statistique. Dans un modèle VAR, les variables sont traitées symétriquement de manière que chacune d'entre elles soit expliquée par ses propres valeurs passées et par les valeurs passées des autres variables. De ce fait, les modèles VAR mobilisent des bases de données importantes.
Moving-average modelIn time series analysis, the moving-average model (MA model), also known as moving-average process, is a common approach for modeling univariate time series. The moving-average model specifies that the output variable is cross-correlated with a non-identical to itself random-variable. Together with the autoregressive (AR) model, the moving-average model is a special case and key component of the more general ARMA and ARIMA models of time series, which have a more complicated stochastic structure.
AutocorrélationL'autocorrélation est un outil mathématique souvent utilisé en traitement du signal. C'est la corrélation croisée d'un signal par lui-même. L'autocorrélation permet de détecter des régularités, des profils répétés dans un signal comme un signal périodique perturbé par beaucoup de bruit, ou bien une fréquence fondamentale d'un signal qui ne contient pas effectivement cette fondamentale, mais l'implique avec plusieurs de ses harmoniques. Note : La confusion est souvent faite entre l'auto-covariance et l'auto-corrélation.
PrévisionLa prévision est une . D'une façon générale, . Dans un sens plus restrictif, en épistémologie contemporaine, la prévision se distingue de la prédiction, qui est issue d'une loi ou théorie scientifique hautement confirmée ou corroborée, tandis que la prévision découle d'hypothèses ou de conjectures moins assurées. La prévisibilité et la prédictibilité désignent la possibilité que certains événements ou phénomènes soient prévus ou prédits à partir d'une hypothèse ou d'une théorie scientifique et de conditions initiales appropriées.
Processus stationnairePour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps.
Densité spectrale de puissanceOn définit la densité spectrale de puissance (DSP en abrégé, Power Spectral Density ou PSD en anglais) comme étant le carré du module de la transformée de Fourier, divisé par le temps d'intégration, (ou, plus rigoureusement, la limite quand tend vers l'infini de l'espérance mathématique du carré du module de la transformée de Fourier du signal - on parle alors de densité spectrale de puissance moyenne).
Corrélation croiséeLa corrélation croisée est parfois utilisée en statistique pour désigner la covariance des vecteurs aléatoires X et Y, afin de distinguer ce concept de la « covariance » d'un vecteur aléatoire, laquelle est comprise comme étant la matrice de covariance des coordonnées du vecteur. En traitement du signal, la corrélation croisée (aussi appelée covariance croisée) est la mesure de la similitude entre deux signaux.
AutocovarianceLa fonction d'autocovariance d'un processus stochastique permet de caractériser les dépendances linéaires existant au sein de ce processus. Si est un processus stationnaire au sens faible alors et pour n'importe quels entiers naturels . Dans ce cas et il suffit alors de définir les autocovariances par la fonction qui à tout associe . La fonction d'autocovariance apparaît alors comme la covariance de ce processus avec une version décalée de lui-même. On appelle l'autocovariance d'ordre .
Opérateur retardEn l'analyse des séries temporelles, l'opérateur retard, noté L (ou B quelquefois), est l'opérateur qui, à tout élément d'une série temporelle, associe l'observation précédente. Pour un décalage de plusieurs unités, on utilise plusieurs fois de suite cet opérateur, ce que l'on note L élevé à une certaine puissance (l'exposant doit s'entendre au sens de la composition). Ainsi Une généralisation est de décaler non-plus dans le passé mais dans le futur, par un exposant négatif.
Partial autocorrelation functionIn time series analysis, the partial autocorrelation function (PACF) gives the partial correlation of a stationary time series with its own lagged values, regressed the values of the time series at all shorter lags. It contrasts with the autocorrelation function, which does not control for other lags. This function plays an important role in data analysis aimed at identifying the extent of the lag in an autoregressive (AR) model.
Bruit blancthumb|Échantillon de bruit blanc. thumb|Spectre plat d'un bruit blanc (sur l'abscisse, la fréquence ; en ordonnée, l'intensité). Un bruit blanc est une réalisation d'un processus aléatoire dans lequel la densité spectrale de puissance est la même pour toutes les fréquences de la bande passante. Le bruit additif blanc gaussien est un bruit blanc qui suit une loi normale de moyenne et variance données. Des générateurs de signaux aléatoires () sont utilisés pour des essais de dispositifs de transmission et, à faible niveau, pour l'amélioration des systèmes numériques par dither.
Unit rootIn probability theory and statistics, a unit root is a feature of some stochastic processes (such as random walks) that can cause problems in statistical inference involving time series models. A linear stochastic process has a unit root if 1 is a root of the process's characteristic equation. Such a process is non-stationary but does not always have a trend. If the other roots of the characteristic equation lie inside the unit circle—that is, have a modulus (absolute value) less than one—then the first difference of the process will be stationary; otherwise, the process will need to be differenced multiple times to become stationary.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Prévision économiqueLa Prévision économique est l'estimation, généralement par des méthodes économétriques, des valeurs actuelles ou futures de grandeurs économiques. Elle est utilisée par exemple pour estimer l'évolution du PIB ou de l'inflation, et orienter les comportements d'investissement des entreprises ou la politique économique de la banque centrale et du gouvernement. La prévision économique est toujours incertaine, et aux estimations des valeurs futures sont toujours associés des intervalles de confiance.
Détection de rupturesvignette|350px|droite|Exemple de signal ayant des changements dans la moyenne. vignette|350px|droite|Exemple de signal ayant des changements dans la distribution. En analyse statistique, le problème de détection de ruptures (ou détection de points de changement) est un problème de régression ayant pour but d'estimer les instants où un signal présente des changements dans la distribution. Ces instants sont matérialisés sur les deux figures par des lignes verticales bleues.
Maximum entropy spectral estimationMaximum entropy spectral estimation is a method of spectral density estimation. The goal is to improve the spectral quality based on the principle of maximum entropy. The method is based on choosing the spectrum which corresponds to the most random or the most unpredictable time series whose autocorrelation function agrees with the known values. This assumption, which corresponds to the concept of maximum entropy as used in both statistical mechanics and information theory, is maximally non-committal with regard to the unknown values of the autocorrelation function of the time series.