Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.
Kernel principal component analysisIn the field of multivariate statistics, kernel principal component analysis (kernel PCA) is an extension of principal component analysis (PCA) using techniques of kernel methods. Using a kernel, the originally linear operations of PCA are performed in a reproducing kernel Hilbert space. Recall that conventional PCA operates on zero-centered data; that is, where is one of the multivariate observations.
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
Théorie des représentationsLa théorie des représentations est une branche des mathématiques qui étudie les structures algébriques abstraites en représentant leurs éléments comme des transformations linéaires d'espaces vectoriels, et qui étudie les modules sur ces structures algébriques abstraites. Essentiellement, une représentation concrétise un objet algébrique abstrait en décrivant ses éléments par des matrices et les opérations sur ces éléments en termes d'addition matricielle et de produit matriciel.
Représentation de groupeEn mathématiques, une représentation de groupe décrit un groupe en le faisant agir sur un espace vectoriel de manière linéaire. Autrement dit, on essaie de voir le groupe comme un groupe de matrices, d'où le terme représentation. On peut ainsi, à partir des propriétés relativement bien connues du groupe des automorphismes de l'espace vectoriel, arriver à déduire quelques propriétés du groupe. C'est l'un des concepts importants de la théorie des représentations.
Ring of symmetric functionsIn algebra and in particular in algebraic combinatorics, the ring of symmetric functions is a specific limit of the rings of symmetric polynomials in n indeterminates, as n goes to infinity. This ring serves as universal structure in which relations between symmetric polynomials can be expressed in a way independent of the number n of indeterminates (but its elements are neither polynomials nor functions). Among other things, this ring plays an important role in the representation theory of the symmetric group.
Algebra representationIn abstract algebra, a representation of an associative algebra is a module for that algebra. Here an associative algebra is a (not necessarily unital) ring. If the algebra is not unital, it may be made so in a standard way (see the adjoint functors page); there is no essential difference between modules for the resulting unital ring, in which the identity acts by the identity mapping, and representations of the algebra.
Représentation adjointeEn mathématiques, il existe deux notions de représentations adjointes : la représentation adjointe d'un groupe de Lie sur son algèbre de Lie, la représentation adjointe d'une algèbre de Lie sur elle-même. Alors que la première est une représentation de groupe, la seconde est une représentation d'algèbre. Soient : un groupe de Lie ; l'élément identité de ; l'algèbre de Lie de ; l'automorphisme intérieur de sur lui-même, donné par .
Représentation irréductibleEn mathématiques et plus précisément en théorie des représentations, une représentation irréductible est une représentation non nulle qui n'admet qu'elle-même et la représentation nulle comme sous-représentations. Le présent article traite des représentations d'un groupe. Le théorème de Maschke démontre que dans de nombreux cas, une représentation est somme directe de représentations irréductibles. Dans le cas des groupes finis, les informations liés aux représentations irréductibles sont encodées dans la table de caractères du groupe.
Stanley symmetric functionIn mathematics and especially in algebraic combinatorics, the Stanley symmetric functions are a family of symmetric functions introduced by in his study of the symmetric group of permutations. Formally, the Stanley symmetric function Fw(x1, x2, ...) indexed by a permutation w is defined as a sum of certain fundamental quasisymmetric functions. Each summand corresponds to a reduced decomposition of w, that is, to a way of writing w as a product of a minimal possible number of adjacent transpositions.
Représentation d'algèbre de LieEn mathématiques, une représentation d'une algèbre de Lie est une façon d'écrire cette algèbre comme une algèbre de matrices, ou plus généralement d'endomorphismes d'un espace vectoriel, avec le crochet de Lie donné par le commutateur. Algèbre de Lie Soit K un corps commutatif de caractéristique différente de 2. Une algèbre de Lie sur K est un espace vectoriel muni d'une application bilinéaire de dans qui vérifie les propriétés suivantes : Tout espace vectoriel peut être muni d'une structure d'algèbre de Lie, en posant .
Poids (théorie des représentations)Dans le domaine mathématique de la théorie des représentations, un poids d'une algèbre A sur un corps F est un morphisme d'algèbres de A vers F ou, de manière équivalente, une représentation de dimension un de A sur F. C'est l'analogue algébrique d'un caractère multiplicatif d'un groupe. L'importance du concept découle cependant de son application aux représentations des algèbres de Lie et donc aussi aux représentations des groupes algébriques et des groupes de Lie.
Polynôme symétriqueEn mathématiques, un polynôme symétrique est un polynôme en plusieurs indéterminées, invariant par permutation de ses indéterminées. Ils jouent notamment un rôle dans les relations entre coefficients et racines. Soit A un anneau commutatif unitaire. Un polynôme Q(T, ..., T) en n indéterminées à coefficients dans A est dit symétrique si pour toute permutation s de l'ensemble d'indices {1, ..., n}, l'égalité suivante est vérifiée : Exemples Pour n = 1, tout polynôme est symétrique.
Nonlinear dimensionality reductionNonlinear dimensionality reduction, also known as manifold learning, refers to various related techniques that aim to project high-dimensional data onto lower-dimensional latent manifolds, with the goal of either visualizing the data in the low-dimensional space, or learning the mapping (either from the high-dimensional space to the low-dimensional embedding or vice versa) itself. The techniques described below can be understood as generalizations of linear decomposition methods used for dimensionality reduction, such as singular value decomposition and principal component analysis.
Special linear Lie algebraIn mathematics, the special linear Lie algebra of order n (denoted or ) is the Lie algebra of matrices with trace zero and with the Lie bracket . This algebra is well studied and understood, and is often used as a model for the study of other Lie algebras. The Lie group that it generates is the special linear group. The Lie algebra is central to the study of special relativity, general relativity and supersymmetry: its fundamental representation is the so-called spinor representation, while its adjoint representation generates the Lorentz group SO(3,1) of special relativity.
Complete homogeneous symmetric polynomialIn mathematics, specifically in algebraic combinatorics and commutative algebra, the complete homogeneous symmetric polynomials are a specific kind of symmetric polynomials. Every symmetric polynomial can be expressed as a polynomial expression in complete homogeneous symmetric polynomials. The complete homogeneous symmetric polynomial of degree k in n variables X1, ..., Xn, written hk for k = 0, 1, 2, ..., is the sum of all monomials of total degree k in the variables.
Analyse en composantes indépendantesL'analyse en composantes indépendantes (en anglais, independent component analysis ou ICA) est une méthode d'analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est notoirement et historiquement connue en tant que méthode de séparation aveugle de source mais a par suite été appliquée à divers problèmes. Les contributions principales ont été rassemblées dans un ouvrage édité en 2010 par P.Comon et C.Jutten.
Théorème fondamental des fonctions symétriquesEn mathématiques, et plus particulièrement en algèbre commutative, le théorème fondamental des fonctions symétriques, souvent appelé « théorème fondamental des polynômes symétriques » ou « théorème de Newton », stipule que tout polynôme symétrique en n indéterminées à coefficients dans un anneau (commutatif) A s'exprime de façon unique par une fonction polynomiale des n polynômes symétriques élémentaires. Autrement dit, les n polynômes symétriques élémentaires forment une partie génératrice de l'algèbre des polynômes symétriques en n indéterminées sur A et sont algébriquement indépendants sur A.
Power sum symmetric polynomialIn mathematics, specifically in commutative algebra, the power sum symmetric polynomials are a type of basic building block for symmetric polynomials, in the sense that every symmetric polynomial with rational coefficients can be expressed as a sum and difference of products of power sum symmetric polynomials with rational coefficients. However, not every symmetric polynomial with integral coefficients is generated by integral combinations of products of power-sum polynomials: they are a generating set over the rationals, but not over the integers.
Non-negative matrix factorizationNon-negative matrix factorization (NMF or NNMF), also non-negative matrix approximation is a group of algorithms in multivariate analysis and linear algebra where a matrix V is factorized into (usually) two matrices W and H, with the property that all three matrices have no negative elements. This non-negativity makes the resulting matrices easier to inspect. Also, in applications such as processing of audio spectrograms or muscular activity, non-negativity is inherent to the data being considered.