Tensor rank decompositionIn multilinear algebra, the tensor rank decomposition or the decomposition of a tensor is the decomposition of a tensor in terms of a sum of minimum tensors. This is an open problem. Canonical polyadic decomposition (CPD) is a variant of the rank decomposition which computes the best fitting terms for a user specified . The CP decomposition has found some applications in linguistics and chemometrics. The CP rank was introduced by Frank Lauren Hitchcock in 1927 and later rediscovered several times, notably in psychometrics.
Espace de Hilbertvignette|Une photographie de David Hilbert (1862 - 1943) qui a donné son nom aux espaces dont il est question dans cet article. En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. De plus, un espace de Hilbert est complet, ce qui permet d'y appliquer des techniques d'analyse. Ces espaces doivent leur nom au mathématicien allemand David Hilbert.
Fléau de la dimensionLe fléau de la dimension ou malédiction de la dimension (curse of dimensionality) est un terme inventé par Richard Bellman en 1961 pour désigner divers phénomènes qui ont lieu lorsque l'on cherche à analyser ou organiser des données dans des espaces de grande dimension alors qu'ils n'ont pas lieu dans des espaces de dimension moindre. Plusieurs domaines sont concernés et notamment l'apprentissage automatique, la fouille de données, les bases de données, l'analyse numérique ou encore l'échantillonnage.
DimensionLe terme dimension, du latin dimensio « action de mesurer », désigne d’abord chacune des grandeurs d’un objet : longueur, largeur et profondeur, épaisseur ou hauteur, ou encore son diamètre si c'est une pièce de révolution. L’acception a dérivé de deux façons différentes en physique et en mathématiques. En physique, la dimension qualifie une grandeur indépendamment de son unité de mesure, tandis qu’en mathématiques, la notion de dimension correspond au nombre de grandeurs nécessaires pour identifier un objet, avec des définitions spécifiques selon le type d’objet (algébrique, topologique ou combinatoire notamment).
Triplet de GelfandEn analyse fonctionnelle, le triplet de Gelfand (aussi triplet de Banach-Gelfand ou triade hilbertienne ou rigged Hilbert space) est un espace-triplet consistant en un espace de Hilbert , un espace de Banach (ou plus généralement un espace vectoriel topologique) et son dual topologique . L'espace est choisi tel que soit un sous-espace dense dans et que son inclusion soitcontinue. Cette construction a l'avantage que les éléments de peuvent être exprimés comme des éléments de l'espace dual en utilisant le théorème de représentation de Fréchet-Riesz.
Espace de Hilbert à noyau reproduisantEn analyse fonctionnelle, un espace de Hilbert à noyau reproduisant est un espace de Hilbert de fonctions pour lequel toutes les applications sont des formes linéaires continues. De manière équivalente, il existe des espaces qu'on peut définir par des noyaux reproduisants. Le sujet a été originellement et simultanément développé par Nachman Aronszajn et Stefan Bergman en 1950. Les espaces de Hilbert à noyau reproduisant sont parfois désignés sous l’acronyme issu du titre anglais RKHS, pour Reproducing Kernel Hilbert Space.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Cube de HilbertEn topologie, on appelle cube de Hilbert l'espace produit muni de la topologie produit, autrement dit : l'espace des suites à valeurs dans [0, 1], muni de la topologie de la convergence simple. D'après le théorème de Tykhonov, c'est un espace compact. Il est homéomorphe au sous-espace suivant de l, pour tous : Il est donc métrisable et par conséquent (puisqu'il est compact), séparable et possède la propriété suivante : Cela fournit en particulier un moyen commode pour compactifier les espaces métrisables séparables, et aussi un critère pour les classifier selon leur complexité ; par exemple un espace est polonais si et seulement s'il est homéomorphe à l'intersection d'une suite d'ouverts de K.
Analyse dimensionnellethumb|Préparation d'une maquette dans un bassin d'essai. L'analyse dimensionnelle est une méthode pratique permettant de vérifier l'homogénéité d'une formule physique à travers ses équations aux dimensions, c'est-à-dire la décomposition des grandeurs physiques qu'elle met en jeu en un produit de grandeurs de base : longueur, durée, masse, intensité électrique, irréductibles les unes aux autres.
Multilinear subspace learningMultilinear subspace learning is an approach for disentangling the causal factor of data formation and performing dimensionality reduction. The Dimensionality reduction can be performed on a data tensor that contains a collection of observations have been vectorized, or observations that are treated as matrices and concatenated into a data tensor. Here are some examples of data tensors whose observations are vectorized or whose observations are matrices concatenated into data tensor s (2D/3D), video sequences (3D/4D), and hyperspectral cubes (3D/4D).
Nonlinear dimensionality reductionNonlinear dimensionality reduction, also known as manifold learning, refers to various related techniques that aim to project high-dimensional data onto lower-dimensional latent manifolds, with the goal of either visualizing the data in the low-dimensional space, or learning the mapping (either from the high-dimensional space to the low-dimensional embedding or vice versa) itself. The techniques described below can be understood as generalizations of linear decomposition methods used for dimensionality reduction, such as singular value decomposition and principal component analysis.
Opérateur compactEn mathématiques, et plus précisément en analyse fonctionnelle, un opérateur compact est une application continue entre deux espaces vectoriels topologiques X et Y envoyant les parties bornées de X sur les parties relativement compactes de Y. Les applications linéaires compactes généralisent les applications linéaires continues de rang fini. La théorie est particulièrement intéressante pour les espaces vectoriels normés ou les espaces de Banach. En particulier, dans un espace de Banach, l'ensemble des opérateurs compacts est fermé pour la topologie forte.
Opérateur laplacienL'opérateur laplacien, ou simplement le laplacien, est l'opérateur différentiel défini par l'application de l'opérateur gradient suivie de l'application de l'opérateur divergence : Intuitivement, il combine et relie la description statique d'un champ (décrit par son gradient) aux effets dynamiques (la divergence) de ce champ dans l'espace et le temps. C'est l'exemple le plus simple et le plus répandu d'opérateur elliptique.
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
Algorithme de recherche de valeur propreUn problème important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés. Valeur propre, vecteur propre et espace propre Pour une matrice carrée A de taille n × n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation où v est un vecteur colonne n × 1 non nul, I la matrice identité de taille n × n, k un entier positif.
Équation différentielle à retardEn mathématiques, les équations différentielles à retard (EDR) sont un type d'équation différentielle dans laquelle la dérivée de la fonction inconnue à un certain instant est donnée en fonction des valeurs de la fonction aux instants précédents. Les EDR sont également appelés des systèmes à retard, systèmes avec effet secondaire ou temps mort, systèmes héréditaires, équations à argument déviant, ou équations aux différences différentielles .
Équation différentielle linéaireUne équation différentielle linéaire est un cas particulier d'équation différentielle pour lequel on peut appliquer des procédés de superposition de solutions, et exploiter des résultats d'algèbre linéaire. De nombreuses équations différentielles de la physique vérifient la propriété de linéarité. De plus, les équations différentielles linéaires apparaissent naturellement en perturbant une équation différentielle (non linéaire) autour d'une de ses solutions.
Système linéaireUn système linéaire (le terme système étant pris au sens de l'automatique, à savoir un système dynamique) est un objet du monde matériel qui peut être décrit par des équations linéaires (équations linéaires différentielles ou aux différences), ou encore qui obéit au principe de superposition : toute combinaison linéaire des variables de ce système est encore une variable de ce système. Les systèmes non linéaires sont plus difficiles à étudier que les systèmes linéaires.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Équations de Navier-Stokesthumb|Léonard de Vinci : écoulement dans une fontaine En mécanique des fluides, les équations de Navier-Stokes sont des équations aux dérivées partielles non linéaires qui décrivent le mouvement des fluides newtoniens (donc des gaz et de la majeure partie des liquides). La résolution de ces équations modélisant un fluide comme un milieu continu à une seule phase est difficile, et l'existence mathématique de solutions des équations de Navier-Stokes n'est pas démontrée.