Long short-term memoryLong short-term memory (LSTM) network is a recurrent neural network (RNN), aimed to deal with the vanishing gradient problem present in traditional RNNs. Its relative insensitivity to gap length is its advantage over other RNNs, hidden Markov models and other sequence learning methods. It aims to provide a short-term memory for RNN that can last thousands of timesteps, thus "long short-term memory".
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.
Prévision météorologiqueLa prévision météorologique est une application des connaissances en météorologie et des techniques modernes de prises de données et d’informatique pour prévoir l’état de l’atmosphère à un temps ultérieur. L’histoire de la prévision du temps remonte aux temps immémoriaux avec les oracles et devins mais la science moderne date vraiment de la fin du et du début du . Elle s’est cependant affirmée depuis la Seconde Guerre mondiale alors que les moyens techniques comme le radar et les communications modernes ont rendu l’accès aux données plus rapide et plus nombreuses.
Business process modelingBusiness process modeling (BPM) in business process management and systems engineering is the activity of representing processes of an enterprise, so that the current business processes may be analyzed, improved, and automated. BPM is typically performed by business analysts, who provide expertise in the modeling discipline; by subject matter experts, who have specialized knowledge of the processes being modeled; or more commonly by a team comprising both. Alternatively, the process model can be derived directly from events' logs using process mining tools.
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Neural networkA neural network can refer to a neural circuit of biological neurons (sometimes also called a biological neural network), a network of artificial neurons or nodes in the case of an artificial neural network. Artificial neural networks are used for solving artificial intelligence (AI) problems; they model connections of biological neurons as weights between nodes. A positive weight reflects an excitatory connection, while negative values mean inhibitory connections. All inputs are modified by a weight and summed.
Seq2seqSeq2seq is a family of machine learning approaches used for natural language processing. Applications include language translation, , conversational models, and text summarization. The algorithm was developed by Google for use in machine translation. Similar earlier work includes Tomáš Mikolov's 2012 PhD thesis. In 2019, Facebook announced its use in symbolic integration and resolution of differential equations. The company claimed that it could solve complex equations more rapidly and with greater accuracy than commercial solutions such as Mathematica, MATLAB and Maple.
Business process model and notationBusiness Process Model and Notation (BPMN en anglais), c'est-à-dire « modèle de procédé d'affaire et notation », est une méthode de modélisation de processus d'affaires pour décrire les chaînes de valeur et les activités métier d'une organisation sous forme d'une représentation graphique. Elle constitue la norme internationale . BPMN a été développé au départ par la Business Process Management Initiative (BPMI), et est maintenu par l'Object Management Group (OMG) depuis la fusion de ces deux Consortium en juin 2005.
Réseau neuronal résidueldroite|vignette| Forme canonique d'un réseau neuronal résiduel. Une couche l − 1 est ignoré sur l'activation de l − 2. Un réseau neuronal résiduel ( ResNet ) est un réseau neuronal artificiel (ANN). Il s'agit d'une variante du HighwayNet , le premier réseau neuronal à action directe très profond avec des centaines de couches, beaucoup plus profond que les réseaux neuronaux précédents. Les sauts de connexion ou "raccourcis" sont utilisés pour passer par-dessus certaines couches ( les HighwayNets peuvent également avoir des poids pour les saut eux-mêmes, grâce à une matrice de poids supplémentaire pour leurs portes).
Mémoire épisodiqueEn psychologie cognitive, la mémoire épisodique désigne le processus par lequel l'humain se souvient des événements vécus avec leur contexte (date, lieu, état émotionnel). Cette sous-partie de la mémoire à long terme est différente de la mémoire sémantique qui est la mémoire des faits et des concepts. Cette distinction fut proposée par le psychologue canadien Endel Tulving en 1972. La mémoire épisodique est particulière et possède un ensemble de caractéristiques qui sont importantes car elles contribuent à construire l'histoire personnelle d'un individu.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
InondationUne inondation est une submersion temporaire, naturelle ou artificielle, d'un espace par de l'eau liquide. Ce terme est fréquemment utilisé pour décrire : le débordement d'un cours d'eau, en crue puis en décrue, sur les terrains voisins ; l'eau est répandue dans les talwegs et les dépressions topographiques ; le ruissellement très important d'origine pluviale, soit sur des terres cultivées (inondation boueuse), soit en zone imperméable urbanisée ; le débordement ou les conséquences de la rupture d'ouvrages artificiels hydrauliques tels que retenues d'eau, digues, canalisations (agricoles, d'eau potable, d'assainissement) ou la rupture d'une retenue naturelle comme celle d'un lac glaciaire, provoquant une inondation soudaine ; la remontée émergente d'une nappe phréatique ; l'envahissement temporaire par la mer d'une zone côtière lors d'une submersion marine ou d'un tsunami.
StreamflowStreamflow, or channel runoff, is the flow of water in streams and other channels, and is a major element of the water cycle. It is one runoff component, the movement of water from the land to waterbodies, the other component being surface runoff. Water flowing in channels comes from surface runoff from adjacent hillslopes, from groundwater flow out of the ground, and from water discharged from pipes. The discharge of water flowing in a channel is measured using stream gauges or can be estimated by the Manning equation.
Mémoire à long termeEn psychologie cognitive, la mémoire à long terme (MLT) est la mémoire qui permet de retenir, de manière illimitée, une information sur des périodes de temps très longues (années). La notion de MLT est un concept utilisé dans les modèles de mémoire qui distinguent plusieurs sous-systèmes en fonction du type d'information mémorisé et de la durée de rétention. La mémoire à long terme s'oppose ainsi au registre sensoriel (ou mémoire sensorielle), à la mémoire à court terme et à la mémoire de travail.
PrévisionLa prévision est une . D'une façon générale, . Dans un sens plus restrictif, en épistémologie contemporaine, la prévision se distingue de la prédiction, qui est issue d'une loi ou théorie scientifique hautement confirmée ou corroborée, tandis que la prévision découle d'hypothèses ou de conjectures moins assurées. La prévisibilité et la prédictibilité désignent la possibilité que certains événements ou phénomènes soient prévus ou prédits à partir d'une hypothèse ou d'une théorie scientifique et de conditions initiales appropriées.
Text-to-image modelA text-to-image model is a machine learning model which takes an input natural language description and produces an image matching that description. Such models began to be developed in the mid-2010s, as a result of advances in deep neural networks. In 2022, the output of state of the art text-to-image models, such as OpenAI's DALL-E 2, Google Brain's , StabilityAI's Stable Diffusion, and Midjourney began to approach the quality of real photographs and human-drawn art.
Attention (machine learning)Machine learning-based attention is a mechanism mimicking cognitive attention. It calculates "soft" weights for each word, more precisely for its embedding, in the context window. It can do it either in parallel (such as in transformers) or sequentially (such as recursive neural networks). "Soft" weights can change during each runtime, in contrast to "hard" weights, which are (pre-)trained and fine-tuned and remain frozen afterwards. Multiple attention heads are used in transformer-based large language models.
Cash flow forecastingCash flow forecasting is the process of obtaining an estimate of a company's future financial position; the cash flow forecast is typically based on anticipated payments and receivables. There are two types of cash flow forecasting methodologies in general: Direct cash forecasting Indirect cash forecasting. Financial forecastCash management and Treasury management#Cash and Liquidity Management Cash flow forecasting is an element of financial management.