Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.
Kernel principal component analysisIn the field of multivariate statistics, kernel principal component analysis (kernel PCA) is an extension of principal component analysis (PCA) using techniques of kernel methods. Using a kernel, the originally linear operations of PCA are performed in a reproducing kernel Hilbert space. Recall that conventional PCA operates on zero-centered data; that is, where is one of the multivariate observations.
Nonlinear dimensionality reductionNonlinear dimensionality reduction, also known as manifold learning, refers to various related techniques that aim to project high-dimensional data onto lower-dimensional latent manifolds, with the goal of either visualizing the data in the low-dimensional space, or learning the mapping (either from the high-dimensional space to the low-dimensional embedding or vice versa) itself. The techniques described below can be understood as generalizations of linear decomposition methods used for dimensionality reduction, such as singular value decomposition and principal component analysis.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Analyse en composantes indépendantesL'analyse en composantes indépendantes (en anglais, independent component analysis ou ICA) est une méthode d'analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est notoirement et historiquement connue en tant que méthode de séparation aveugle de source mais a par suite été appliquée à divers problèmes. Les contributions principales ont été rassemblées dans un ouvrage édité en 2010 par P.Comon et C.Jutten.
Représentation de groupeEn mathématiques, une représentation de groupe décrit un groupe en le faisant agir sur un espace vectoriel de manière linéaire. Autrement dit, on essaie de voir le groupe comme un groupe de matrices, d'où le terme représentation. On peut ainsi, à partir des propriétés relativement bien connues du groupe des automorphismes de l'espace vectoriel, arriver à déduire quelques propriétés du groupe. C'est l'un des concepts importants de la théorie des représentations.
Zéolithethumb|250px|Zéolithe : gonnardite thumb|250px|Cristaux de zéolithe, vus au microscope électronique thumb|250px|Natrolite ; zéolithe de formule Na_2[Si_3AlO_10] (Val de Fassa à Monzoni (Italie). Le caractère fibreux de certaines zéolithes les rend susceptible de produire des mésothéliomes (comme l'amiante) si elles sont inhalées en fines particules thumb|250px|Natrolite - Auvergne Une zéolithe, ou zéolite, est un minéral faisant partie d'un groupe de même nom de cristaux formés d'un squelette microporeux d'aluminosilicate, dont les espaces vides connectés sont initialement occupés par des cations et des molécules d'eau.
Théorie des représentationsLa théorie des représentations est une branche des mathématiques qui étudie les structures algébriques abstraites en représentant leurs éléments comme des transformations linéaires d'espaces vectoriels, et qui étudie les modules sur ces structures algébriques abstraites. Essentiellement, une représentation concrétise un objet algébrique abstrait en décrivant ses éléments par des matrices et les opérations sur ces éléments en termes d'addition matricielle et de produit matriciel.
Représentation irréductibleEn mathématiques et plus précisément en théorie des représentations, une représentation irréductible est une représentation non nulle qui n'admet qu'elle-même et la représentation nulle comme sous-représentations. Le présent article traite des représentations d'un groupe. Le théorème de Maschke démontre que dans de nombreux cas, une représentation est somme directe de représentations irréductibles. Dans le cas des groupes finis, les informations liés aux représentations irréductibles sont encodées dans la table de caractères du groupe.
Structural genomicsStructural genomics seeks to describe the 3-dimensional structure of every protein encoded by a given genome. This genome-based approach allows for a high-throughput method of structure determination by a combination of experimental and modeling approaches. The principal difference between structural genomics and traditional structural prediction is that structural genomics attempts to determine the structure of every protein encoded by the genome, rather than focusing on one particular protein.
Structural alignmentStructural alignment attempts to establish homology between two or more polymer structures based on their shape and three-dimensional conformation. This process is usually applied to protein tertiary structures but can also be used for large RNA molecules. In contrast to simple structural superposition, where at least some equivalent residues of the two structures are known, structural alignment requires no a priori knowledge of equivalent positions.
Semisimple representationIn mathematics, specifically in representation theory, a semisimple representation (also called a completely reducible representation) is a linear representation of a group or an algebra that is a direct sum of simple representations (also called irreducible representations). It is an example of the general mathematical notion of semisimplicity. Many representations that appear in applications of representation theory are semisimple or can be approximated by semisimple representations.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Représentation adjointeEn mathématiques, il existe deux notions de représentations adjointes : la représentation adjointe d'un groupe de Lie sur son algèbre de Lie, la représentation adjointe d'une algèbre de Lie sur elle-même. Alors que la première est une représentation de groupe, la seconde est une représentation d'algèbre. Soient : un groupe de Lie ; l'élément identité de ; l'algèbre de Lie de ; l'automorphisme intérieur de sur lui-même, donné par .
Bioinformatique structuralevignette|262x262px| Structure tridimensionnelle d'une protéine La bioinformatique structurale est la branche de la bio-informatique liée à l'analyse et à la prédiction de la structure tridimensionnelle des macromolécules biologiques telles que les protéines, l'ARN et l'ADN. Elle traite des généralisations sur les structures tridimensionnelles des macromolécules, telles que les comparaisons des repliements globaux et des motifs locaux, les principes du repliement moléculaire, l'évolution, les interactions de liaison et les relations structure/fonction, en travaillant à la fois à partir de structures résolues expérimentalement et de modèles informatiques.
Linguistique structuraleLa linguistique structurale est une approche de la linguistique issue des travaux du linguiste suisse Ferdinand de Saussure et fait partie de l'approche générale du structuralisme. Le Cours de linguistique générale de Saussure, publié à titre posthume en 1916, mettait l'accent sur l'étude du langage comme système statique d'unités interconnectées.
Corrélation croiséeLa corrélation croisée est parfois utilisée en statistique pour désigner la covariance des vecteurs aléatoires X et Y, afin de distinguer ce concept de la « covariance » d'un vecteur aléatoire, laquelle est comprise comme étant la matrice de covariance des coordonnées du vecteur. En traitement du signal, la corrélation croisée (aussi appelée covariance croisée) est la mesure de la similitude entre deux signaux.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
Représentation unitaireEn mathématiques, une représentation unitaire d'un groupe G est une représentation linéaire π de G sur un espace de Hilbert complexe V telle que π(g) est un opérateur unitaire pour tout g ∈ G. La théorie générale est bien développée dans le cas où G est un groupe topologique localement compact (séparé) et les représentations sont fortement continues. La théorie a été largement appliquée en mécanique quantique depuis les années 1920, particulièrement sous l'influence par le livre de 1928 de Hermann Weyl, Gruppentheorie und Quantenmechanik.
Carte autoadaptativeLes cartes autoadaptatives, cartes auto-organisatrices ou cartes topologiques forment une classe de réseau de neurones artificiels fondée sur des méthodes d'apprentissage non supervisées. Elles sont souvent désignées par le terme anglais self organizing maps (SOM), ou encore cartes de Kohonen du nom du statisticien ayant développé le concept en 1984. La littérature utilise aussi les dénominations : « réseau de Kohonen », « réseau autoadaptatif » ou « réseau autoorganisé ».