Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.
Modélisation tridimensionnelleLa modélisation tridimensionnelle est l'étape en infographie tridimensionnelle qui consiste à créer, dans un logiciel de modélisation 3D, un objet en trois dimensions, par ajout, soustraction et modifications de ses constituants. La révolution consiste à faire tourner un profil 2D autour d'un axe 3D : on obtient ainsi un volume de révolution. C'est la technique majoritairement utilisée dans le jeu vidéo, et le cinéma d'animation. La modélisation polygonale induit une marge d'erreur de proportions et de dimensions le plus souvent invisible à l'œil nu.
Régularisation (mathématiques)vignette|Les courbes bleues et vertes correspondent à deux modèles differents, tous les deux étant des solutions possibles du problème consistant à décrire les coordonnées de tous les points rouges. L'application d'une régularisation favorise le modèle moins complexe correspondant à la courbe verte. Dans le domaine des mathématiques et des statistiques, et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème, s'il est mal posé ou pour éviter le surapprentissage.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Texture (image de synthèse)Dans le domaine de la , une texture est une image en deux dimensions (2D) que l'on va appliquer sur une surface (2D) ou un volume en trois dimensions (3D) de manière à habiller cette surface ou ce volume. En simplifiant, on peut l'assimiler à un papier peint très plastique et déformable que l'on applique en 3D en spécifiant la transformation géométrique que subit chaque pixel du papier pour s'appliquer sur l'élément 3D. Le pixel ainsi manipulé en 3D est appelé texel.
Analyse sémantique latenteL’analyse sémantique latente (LSA, de l'anglais : Latent semantic analysis) ou indexation sémantique latente (ou LSI, de l'anglais : Latent semantic indexation) est un procédé de traitement des langues naturelles, dans le cadre de la sémantique vectorielle. La LSA fut brevetée en 1988 et publiée en 1990. Elle permet d'établir des relations entre un ensemble de documents et les termes qu'ils contiennent, en construisant des « concepts » liés aux documents et aux termes.
Analyse sémantique latente probabilisteL’analyse sémantique latente probabiliste (de l'anglais, Probabilistic latent semantic analysis : PLSA), aussi appelée indexation sémantique latente probabiliste (PLSI), est une méthode de traitement automatique des langues inspirée de l'analyse sémantique latente. Elle améliore cette dernière en incluant un modèle statistique particulier. La PLSA possède des applications dans le filtrage et la recherche d'information, le traitement des langues naturelles, l'apprentissage automatique et les domaines associés.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Polygonal modelingIn 3D computer graphics, polygonal modeling is an approach for modeling objects by representing or approximating their surfaces using polygon meshes. Polygonal modeling is well suited to scanline rendering and is therefore the method of choice for real-time computer graphics. Alternate methods of representing 3D objects include NURBS surfaces, subdivision surfaces, and equation-based (implicit surface) representations used in ray tracers. The basic object used in mesh modeling is a vertex, a point in three-dimensional space.
Displacement mappingthumb|220px|right|Displacement mapping Le « displacement mapping » est une technique similaire au bump mapping, normal mapping, et au parallax mapping, mais qui utilise, contrairement aux autres techniques, une texture (qui peut être procédurale) ou ce que l'on appelle une « height map » (texture créant du relief dans certains cas) qui modifiera la position géométrique des points de la surface à laquelle on applique cette « displacement map ». Ces positions géométriques seront déterminées selon la valeur (représentée par une couleur) affectée à la texture.
LightWave 3DLightWave 3D est un logiciel d'infographie 3D (imagerie de synthèse) de haut niveau, comprenant la modélisation 3D, l' et le rendu, développé par . Allen Hastings créa en 1988 le logiciel de rendu et d'animation Videoscape 3D, complété par le logiciel de modélisation Aegis Modeler 3D développé par son ami Stuart Ferguson. Les deux furent réunis et vendus un temps sous le nom de Videoscape, avant le rachat par Newtek sous le nom de LightWave 3D et l'intégration au Video Toaster.
BlenderBlender est un logiciel libre de modélisation, d’animation par ordinateur et de rendu en 3D, créé en 1998. Il est actuellement développé par la Fondation Blender. Depuis 2019 le logiciel Blender est de plus en plus reconnu par les entreprises du secteur de l'animation 3D, comme Epic Games, Ubisoft et NVIDIA. Il propose des fonctions avancées de modélisation (dont la sculpture 3D, le et dépliage UV, etc), d’animation 3D (rigging, blend shapes), et de rendu (sur GPU comme sur CPU).
Regularized least squaresRegularized least squares (RLS) is a family of methods for solving the least-squares problem while using regularization to further constrain the resulting solution. RLS is used for two main reasons. The first comes up when the number of variables in the linear system exceeds the number of observations. In such settings, the ordinary least-squares problem is ill-posed and is therefore impossible to fit because the associated optimization problem has infinitely many solutions.
Geometry processingGeometry processing, or mesh processing, is an area of research that uses concepts from applied mathematics, computer science and engineering to design efficient algorithms for the acquisition, reconstruction, analysis, manipulation, simulation and transmission of complex 3D models. As the name implies, many of the concepts, data structures, and algorithms are directly analogous to signal processing and .
ModélisationLa modélisation est la conception et l'utilisation d'un modèle. Selon son objectif (représentation simplifiée, compréhension, prédiction) et les moyens utilisés, la modélisation est dite mathématique, géométrique, 3D, empirique, mécaniste ( modélisation de réseau trophique dans un écosystème), cinématique... Elle nécessite généralement d'être calée par des observations ou mesures faites , lesquelles servent aussi à paramétrer, calibrer ou ajuster le modèle, par exemple en intégrant des facteurs d'influences qui s'avèreraient nécessaires.
ShaderUn shader ou nuanceur (le mot est issu du verbe anglais to shade pris dans le sens de « nuancer ») est un programme informatique, utilisé en , pour paramétrer une partie du processus de rendu réalisé par une carte graphique ou un moteur de rendu logiciel. Il sert à décrire l'absorption et la diffusion de la lumière, la à utiliser, les réflexions et réfractions, l'ombrage, le déplacement de primitives et des effets post-traitement.
Photon mappingEn , le photon mapping ou placage de photons est un algorithme d'illumination globale fondé sur le lancer de rayon (ray tracing) utilisé pour simuler l'interaction de la lumière avec différents objets de manière réaliste. Plus précisément, il est capable de simuler la réfraction de la lumière à travers une substance transparente, comme l'eau ou le verre, les interréflections diffuses entre objets éclairés, et certains effets volumiques produits par des milieux comme le brouillard ou la fumée.
Fonction d'activationDans le domaine des réseaux de neurones artificiels, la fonction d'activation est une fonction mathématique appliquée à un signal en sortie d'un neurone artificiel. Le terme de "fonction d'activation" vient de l'équivalent biologique "potentiel d'activation", seuil de stimulation qui, une fois atteint entraîne une réponse du neurone. La fonction d'activation est souvent une fonction non linéaire. Un exemple de fonction d'activation est la fonction de Heaviside, qui renvoie tout le temps 1 si le signal en entrée est positif, ou 0 s'il est négatif.
Rendu photoréalisteLe rendu photoréaliste qualifie un rendu visuel qui tend à ressembler à une photographie. Il s'applique ainsi au domaine de l'infographie. Il ne faut pas confondre le rendu photoréaliste avec les mouvements artistiques de l'hyperréalisme, du photoréalisme et du réalisme. Jurassic Park est le premier film à utiliser des images de synthèse où elles atteignent pour la première fois un niveau de réalisme faisant illusion. Elles se résument à quelques plans en pied des créatures, les gros plans étant des animatroniques.
Apprentissage par renforcement profondL'apprentissage par renforcement profond (en anglais : deep reinforcement learning ou deep RL) est un sous-domaine de l'apprentissage automatique (en anglais : machine learning) qui combine l'apprentissage par renforcement et l'apprentissage profond (en anglais : deep learning). L'apprentissage par renforcement considère le problème d'un agent informatique (par exemple, un robot, un agent conversationnel, un personnage dans un jeu vidéo, etc.) qui apprend à prendre des décisions par essais et erreurs.