Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Polynôme de Legendrethumb|upright=1.5|Polynômes de Legendre En mathématiques et en physique théorique, les polynômes de Legendre constituent l'exemple le plus simple d'une suite de polynômes orthogonaux. Ce sont des solutions polynomiales P(x), sur l'intervalle x ∈ [–1, 1], de l'équation différentielle de Legendre : dans le cas particulier où le paramètre n est un entier naturel. De façon équivalente, les polynômes de Legendre sont les fonctions propres de l'endomorphisme de R[X] défini par : pour les valeurs propres .
Neural networkA neural network can refer to a neural circuit of biological neurons (sometimes also called a biological neural network), a network of artificial neurons or nodes in the case of an artificial neural network. Artificial neural networks are used for solving artificial intelligence (AI) problems; they model connections of biological neurons as weights between nodes. A positive weight reflects an excitatory connection, while negative values mean inhibitory connections. All inputs are modified by a weight and summed.
Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Polynôme de TchebychevEn mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
ApprentissageL’apprentissage est un ensemble de mécanismes menant à l'acquisition de savoir-faire, de savoirs ou de connaissances. L'acteur de l'apprentissage est appelé apprenant. On peut opposer l'apprentissage à l'enseignement dont le but est de dispenser des connaissances et savoirs, l'acteur de l'enseignement étant l'enseignant.
Extrêmement basse fréquenceL’extrêmement basse fréquence ou EBF (en anglais, extremely low frequency ou ELF) est la bande de rayonnement électromagnétique (radiofréquences) comprise entre (longueur d'onde de ). Dans le domaine des sciences de l'atmosphère, une définition alternative est généralement retenue : de 3 Hz à 3 kHz. La fréquence du courant alternatif dans les réseaux électriques (50 ou 60 Hz) est située dans la bande de ELF, ce qui fait des réseaux électriques une source involontaire de rayonnement ELF.
Polynôme de LaguerreEn mathématiques, les polynômes de Laguerre, nommés d'après Edmond Laguerre, sont les solutions normalisées de l'équation de Laguerre : qui est une équation différentielle linéaire homogène d'ordre 2 et se réécrit sous la forme de Sturm-Liouville : Cette équation a des solutions non singulières seulement si n est un entier positif. Les solutions L forment une suite de polynômes orthogonaux dans L (R, edx), et la normalisation se fait en leur imposant d'être de norme 1, donc de former une famille orthonormale.
Suite de polynômes orthogonauxEn mathématiques, une suite de polynômes orthogonaux est une suite infinie de polynômes p0(x), p1(x), p2(x) ... à coefficients réels, dans laquelle chaque pn(x) est de degré n, et telle que les polynômes de la suite sont orthogonaux deux à deux pour un produit scalaire de fonctions donné. Cette notion est utilisée par exemple en cryptologie ou en analyse numérique. Elle permet de résoudre de nombreux problèmes de physique, comme en mécanique des fluides ou en traitement du signal.
Polynôme d'HermiteEn mathématiques, les polynômes d'Hermite sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite (bien qu'ils aient été définis, sous une autre forme, en premier par Pierre-Simon Laplace en 1810, surtout été étudiés par Joseph-Louis Lagrange lors de ses travaux sur les probabilités puis en détail par Pafnouti Tchebychev six ans avant Hermite). Ils sont parfois décrits comme des polynômes osculateurs.
Génération automatique de textesLa génération automatique de texte (GAT) est une sous discipline de la linguistique computationnelle qui vise à exprimer sous une forme textuelle, syntaxiquement et sémantiquement correcte, une représentation formelle d'un contenu. Outre ses nombreuses applications existantes ou potentielles - par exemple pour produire automatiquement des bulletins météorologiques, ou des rapports automatisés - elle offre par ailleurs un cadre d'investigation des théories linguistiques, et particulièrement de ses mécanismes de production.
Polynôme de BernoulliEn mathématiques, les polynômes de Bernoulli apparaissent dans l'étude de beaucoup de fonctions spéciales et en particulier, la fonction zêta de Riemann ; des polynômes analogues, correspondant à une fonction génératrice voisine, sont connus sous le nom de polynômes d'Euler. Les polynômes de Bernoulli sont l'unique suite de polynômes telle que : La fonction génératrice pour les polynômes de Bernoulli est La fonction génératrice pour les polynômes d'Euler est Les nombres de Bernoulli sont donnés par .
Group method of data handlingGroup method of data handling (GMDH) is a family of inductive algorithms for computer-based mathematical modeling of multi-parametric datasets that features fully automatic structural and parametric optimization of models. GMDH is used in such fields as data mining, knowledge discovery, prediction, complex systems modeling, optimization and pattern recognition. GMDH algorithms are characterized by inductive procedure that performs sorting-out of gradually complicated polynomial models and selecting the best solution by means of the external criterion.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.
FréquenceEn physique, la fréquence est le nombre de fois qu'un phénomène périodique se reproduit par unité de temps. Dans le Système international d'unités, la fréquence s'exprime en hertz (Hz). La notion de fréquence s'applique aux phénomènes périodiques ou non. L'analyse spectrale transforme la description d'un phénomène en fonction du temps en description en fonction de la fréquence. Dans plusieurs domaines technologiques, on parle de fréquence spatiale. Dans cet usage, une dimension de l'espace prend la place du temps.