Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Rétropropagation du gradientEn intelligence artificielle, plus précisément en apprentissage automatique, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones. Elle consiste à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Pile électriqueUne pile électrique, couramment dénommée « pile », est un dispositif électrochimique qui produit de l'électricité en convertissant de l'énergie chimique en énergie électrique grâce à une réaction d'oxydoréduction. Ce système électrochimique a été inventé par le scientifique italien Alessandro Volta en empilant des couches de deux métaux séparées par des feutres imbibés d'acide. Le Bureau international des poids et mesures choisit de nommer l'unité de potentiel électrique le volt, en référence à Volta.
Perceptron multicoucheEn intelligence artificielle, plus précisément en apprentissage automatique, le perceptron multicouche (multilayer perceptron MLP en anglais) est un type de réseau neuronal artificiel organisé en plusieurs couches. Un perceptron multicouche possède au moins trois couches : une couche d'entrée, au moins une couche cachée, et une couche de sortie. Chaque couche est constituée d'un nombre (potentiellement différent) de neurones. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward).
RpropRprop, short for resilient backpropagation, is a learning heuristic for supervised learning in feedforward artificial neural networks. This is a first-order optimization algorithm. This algorithm was created by Martin Riedmiller and Heinrich Braun in 1992. Similarly to the Manhattan update rule, Rprop takes into account only the sign of the partial derivative over all patterns (not the magnitude), and acts independently on each "weight".
Chargeur (électricité)thumb|Chargeurs et différents types et format de batteries. Un chargeur est un appareil permettant de recharger un ou plusieurs accumulateurs électriques, groupés ou non en batterie, en injectant un courant électrique inverse au sens d'utilisation (décharge). Le circuit le plus simple est une source électrique continue et stabilisée en tension, limitée en courant ou l'inverse. thumb|upright=1.2|Chargeur simple de type mural (sortie : / ). thumb|Chargeur pour piles rechargeables en lithium 1.5V, et son câble USB-C.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Accumulateur nickel-cadmiumvignette|Quelques tailles d'accumulateur Ni-Cd. Un accumulateur nickel-cadmium ou Ni-Cd est un accumulateur électrique rechargeable utilisant de l'hydroxyde de nickel et du cadmium comme électrodes. L'appellation « NiCad » est usuelle, mais erronée, puisque les symboles des éléments chimiques comprennent une ou deux lettres au plus. En ce qui concerne les accumulateurs grand public (appelés communément à tort piles rechargeables, et nommés accumulateurs portables dans le jargon de la directive européenne 2006/66/CE qui encadre les piles et accumulateurs en UE), la technologie Ni-Cd est aujourd'hui relativement dépassée en termes de performance.
Vanishing gradient problemIn machine learning, the vanishing gradient problem is encountered when training artificial neural networks with gradient-based learning methods and backpropagation. In such methods, during each iteration of training each of the neural networks weights receives an update proportional to the partial derivative of the error function with respect to the current weight. The problem is that in some cases, the gradient will be vanishingly small, effectively preventing the weight from changing its value.
Accumulateur électriquevignette|Accumulateur électrochimique au Ni-MH Un accumulateur électrique est un système destiné au stockage de l'énergie électrique sous une forme différente. Il repose sur une technique de conversion réversible d'énergie. Tous les processus de conversion d'énergie sont complexes et entraînent des pertes. Le rapport entre l'énergie initiale et l'énergie restituée donne le rendement de conversion-accumulation, qui atteint au mieux 80 % dans le cas des barrages.
Neural networkA neural network can refer to a neural circuit of biological neurons (sometimes also called a biological neural network), a network of artificial neurons or nodes in the case of an artificial neural network. Artificial neural networks are used for solving artificial intelligence (AI) problems; they model connections of biological neurons as weights between nodes. A positive weight reflects an excitatory connection, while negative values mean inhibitory connections. All inputs are modified by a weight and summed.
VRLA batteryA valve regulated lead–acid (VRLA) battery, commonly known as a sealed lead–acid (SLA) battery, is a type of lead–acid battery characterized by a limited amount of electrolyte ("starved" electrolyte) absorbed in a plate separator or formed into a gel; proportioning of the negative and positive plates so that oxygen recombination is facilitated within the cell; and the presence of a relief valve that retains the battery contents independent of the position of the cells.
Cytochrome P450Les cytochromes P450 (CYP450) sont des hémoprotéines — protéines ayant une molécule d'hème comme cofacteur — qui interviennent dans les réactions d'oxydoréduction d'un grand nombre de grosses ou de petites molécules, qu'il s'agisse de substrats naturels du métabolisme endogène ou de xénobiotiques (polluants, toxines, drogues, médicaments, etc.). Ce sont généralement les oxydases finales d'une chaîne de transport d'électrons.
Catastrophic interferenceCatastrophic interference, also known as catastrophic forgetting, is the tendency of an artificial neural network to abruptly and drastically forget previously learned information upon learning new information. Neural networks are an important part of the network approach and connectionist approach to cognitive science. With these networks, human capabilities such as memory and learning can be modeled using computer simulations. Catastrophic interference is an important issue to consider when creating connectionist models of memory.
Réseau de neurones (biologie)En neurosciences, un réseau de neurones correspond, schématiquement : Soit à un nombre restreint de différents neurones interconnectés, qui ont une fonction précise, comme le ganglion stomatogastrique qui contrôle l'activité des muscles de l'estomac des crustacés. Soit à un grand nombre de neurones similaires interconnectés, qui ont des fonctions plus cognitives, comme les réseaux corticaux qui permettent entre autres la catégorisation.
Cellule primairevignette| Une gamme de piles (cellules primaires) de tailles standard. De gauche à droite : pile multicellulaire « plate » de type 3LR12 ; piles « bâton » de dénominations commerciales D, C, AA, AAA, AAAA ; pile « bâton » A23 ; pile multicellulaire 6LR61 ; piles « bouton » LR44 (haut) et CR2032 (bas). Une cellule primaire (terme américain, en France on utilise le terme pile) est une pile électrique (une cellule galvanique) conçue pour être utilisée une seule fois puis jetée, et non pour être rechargée en électricité puis réutilisée comme l'est une cellule secondaire (batterie rechargeable).
Physical neural networkA physical neural network is a type of artificial neural network in which an electrically adjustable material is used to emulate the function of a neural synapse or a higher-order (dendritic) neuron model. "Physical" neural network is used to emphasize the reliance on physical hardware used to emulate neurons as opposed to software-based approaches. More generally the term is applicable to other artificial neural networks in which a memristor or other electrically adjustable resistance material is used to emulate a neural synapse.
Fonction softmaxvignette|Fonction softmax utilisée après un CNN (Réseau neuronal convolutif). Ici le vecteur (35.4, 38.1, -5.0) est transformée en (0.06, 0.94, 0.00). Dans ce contexte de classification d'images, le chien est reconnu. En mathématiques, la fonction softmax, aussi appelée fonction softargmax ou fonction exponentielle normalisée, est une généralisation de la fonction logistique. Elle convertit un vecteur de K nombres réels en une distribution de probabilités sur K choix.