Espace de BanachEn mathématiques, plus particulièrement en analyse fonctionnelle, on appelle espace de Banach un espace vectoriel normé sur un sous-corps K de C (en général, K = R ou C), complet pour la distance issue de sa norme. Comme la topologie induite par sa distance est compatible avec sa structure d’espace vectoriel, c’est un espace vectoriel topologique. Les espaces de Banach possèdent de nombreuses propriétés qui font d'eux un outil essentiel pour l'analyse fonctionnelle. Ils doivent leur nom au mathématicien polonais Stefan Banach.
Espace réflexifEn analyse fonctionnelle, un espace vectoriel normé est dit réflexif si l'injection naturelle dans son bidual topologique est surjective. Les espaces réflexifs possèdent d'intéressantes propriétés géométriques. Soit un espace vectoriel normé, sur ou . On note son dual topologique, c'est-à-dire l'espace (de Banach) des formes linéaires continues de dans le corps de base. On peut alors former le bidual topologique , qui est le dual topologique de . Il existe une application linéaire continue naturelle définie par pour tout dans et dans .
Théorème de représentation de Riesz (Fréchet-Riesz)En mathématiques, plus précisément en analyse fonctionnelle, le théorème de représentation de Riesz, en l'honneur du mathématicien Frigyes Riesz, est un théorème qui représente les éléments du dual d'un espace de Hilbert comme produit scalaire par un vecteur de l'espace. Ce théorème est aussi parfois appelé théorème de Fréchet-Riesz (à ne pas confondre avec le théorème de Riesz-Fréchet-Kolmogorov). Il s'apparente singulièrement au théorème de Lax-Milgram qui englobe l'énoncé ci-dessous.
Distribution (mathématiques)En analyse mathématique, une distribution (également appelée fonction généralisée) est un objet qui généralise la notion de fonction et de mesure. La théorie des distributions étend la notion de dérivée à toutes les fonctions localement intégrables et au-delà, et est utilisée pour formuler des solutions à certaines équations aux dérivées partielles. Elles sont importantes en physique et en ingénierie où beaucoup de problèmes discontinus conduisent naturellement à des équations différentielles dont les solutions sont des distributions plutôt que des fonctions ordinaires.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Théorème de Banach-Alaoglu-BourbakiLe théorème de Banach-Alaoglu-Bourbaki est un résultat de compacité en analyse fonctionnelle, dû à Stefan Banach dans le cas d'un espace vectoriel normé séparable et généralisé en 1938 par Leonidas Alaoglu puis Nicolas Bourbaki. Si E est un R-espace vectoriel topologique et V un voisinage de 0, alors l'ensemble polaire V° de V, défini par est une partie compacte du dual topologique E' pour la topologie faible-*.
Espace de Schwartzvignette|Une fonction gaussienne bidimensionnelle est un exemple de fonction à décroissance rapide. En analyse mathématique, l'espace de Schwartz est l'espace des fonctions déclinantes (c'est-à-dire des fonctions indéfiniment dérivables à décroissance rapide, ainsi que leurs dérivées de tous ordres). Le dual de cet espace est l'espace des distributions tempérées. Les espaces et jouent un rôle essentiel dans la théorie de la transformée de Fourier.
Réseau neuronal résidueldroite|vignette| Forme canonique d'un réseau neuronal résiduel. Une couche l − 1 est ignoré sur l'activation de l − 2. Un réseau neuronal résiduel ( ResNet ) est un réseau neuronal artificiel (ANN). Il s'agit d'une variante du HighwayNet , le premier réseau neuronal à action directe très profond avec des centaines de couches, beaucoup plus profond que les réseaux neuronaux précédents. Les sauts de connexion ou "raccourcis" sont utilisés pour passer par-dessus certaines couches ( les HighwayNets peuvent également avoir des poids pour les saut eux-mêmes, grâce à une matrice de poids supplémentaire pour leurs portes).
Espace nucléaireEn mathématiques, et plus précisément en analyse, un espace nucléaire est un espace vectoriel topologique possédant certaines propriétés analogues à celles des espaces de dimension finie. Leur topologie peut être définie par une famille de semi-normes dont la taille des boules unités décroit rapidement. Les espaces vectoriels dont les éléments sont « lisses » en un certain sens sont souvent des espaces nucléaires ; un exemple typique est celui des fonctions régulières sur une variété compacte.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Endomorphisme autoadjointEn mathématiques et plus précisément en algèbre linéaire, un endomorphisme autoadjoint ou opérateur hermitien est un endomorphisme d'espace de Hilbert qui est son propre adjoint (sur un espace de Hilbert réel on dit aussi endomorphisme symétrique). Le prototype d'espace de Hilbert est un espace euclidien, c'est-à-dire un espace vectoriel sur le corps des réels, de dimension finie, et muni d'un produit scalaire. L'analogue sur le corps des complexes s'appelle un espace hermitien.
Algèbre de BanachEn mathématiques, l'algèbre de Banach est une des structures fondamentales de l'analyse fonctionnelle, portant le nom du mathématicien polonais Stefan Banach (1892-1945). On explicite cette définition : une algèbre de Banach A sur le corps K = R ou C est un espace vectoriel normé complet sur K (on note la norme) muni d'une loi interne notée multiplicativement, telle que quels que soient x, y, z éléments de A et élément de K : (associativité) ; et (bilinéarité) ; (sous-multiplicativité).
Opérateur non bornéEn analyse fonctionnelle, un opérateur non borné est une application linéaire partiellement définie. Plus précisément, soient X, Y deux espaces vectoriels. Un tel opérateur est donné par un sous-espace dom(T) de X et une application linéaire dont l'ensemble de définition est dom(T) et l'ensemble d'arrivée est Y. Considérons X = Y = L(R) et l'espace de Sobolev H(R) des fonctions de carré intégrable dont la dérivée au sens des distributions appartient, elle aussi, à L(R).
Complemented subspaceIn the branch of mathematics called functional analysis, a complemented subspace of a topological vector space is a vector subspace for which there exists some other vector subspace of called its (topological) complement in , such that is the direct sum in the category of topological vector spaces. Formally, topological direct sums strengthen the algebraic direct sum by requiring certain maps be continuous; the result retains many nice properties from the operation of direct sum in finite-dimensional vector spaces.
PyTorchPyTorch est une bibliothèque logicielle Python open source d'apprentissage machine qui s'appuie sur développée par Meta. PyTorch est gouverné par la PyTorch Foundation. PyTorch permet d'effectuer les calculs tensoriels nécessaires notamment pour l'apprentissage profond (deep learning). Ces calculs sont optimisés et effectués soit par le processeur (CPU) soit, lorsque c'est possible, par un processeur graphique (GPU) supportant CUDA.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Espace de suites ℓpEn mathématiques, l'espace est un exemple d'espace vectoriel, constitué de suites à valeurs réelles ou complexes et qui possède, pour 1 ≤ p ≤ ∞, une structure d'espace de Banach. Considérons l'espace vectoriel réel R, c'est-à-dire l'espace des n-uplets de nombres réels. La norme euclidienne d'un vecteur est donnée par : Mais pour tout nombre réel p ≥ 1, on peut définir une autre norme sur R, appelée la p-norme, en posant : pour tout vecteur . Pour tout p ≥ 1, R muni de la p-norme est donc un espace vectoriel normé.
Sous-espace stableEn algèbre linéaire, un endomorphisme laisse stable un sous-espace vectoriel F quand les éléments de F ont pour image un élément de F. La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes. Soient E un espace vectoriel et u un endomorphisme de E. Un sous-espace vectoriel F de E est dit stable par u quand , c'est-à-dire : . Dans ce cas, u induit sur F un endomorphisme L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.