Écriture mayaLécriture maya est un système d'écriture logosyllabique, c'est-à-dire à la fois logographique (un symbole — graphème — correspond à une notion — lemme) et syllabographique (un graphème correspond au son d'une syllabe), servant à retranscrire l'ensemble des langues mayas. L'écriture était l'apanage d'une caste de « Ah Tz'iib » faisant partie de la haute société. Seules deux autres castes dirigeantes y avaient accès : les prêtres et les chefs. Elle était inaccessible au reste de la population.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Civilisation mayathumb|upright=1.3|Pyramide à degrés de la cité postclassique maya de Chichén Itzá. La civilisation maya est une ancienne civilisation de Mésoamérique principalement connue pour ses avancées dans les domaines de l'écriture, de l'art, de l'architecture, de l'agriculture, des mathématiques et de l'astronomie. C'est une des civilisations précolombiennes les plus étudiées avec celles des Aztèques et des Incas. Elle occupait à l'époque précolombienne un territoire centré sur la péninsule du Yucatán, correspondant actuellement à une partie du sud du Mexique, au Belize, au Guatemala, au Honduras et au Salvador.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Codex mayaLes codex mayas sont des assemblages de feuilles ou cahiers rédigés en écriture maya par des scribes de la civilisation maya précolombienne. Ces codex ont reçu les noms des villes dans lesquelles ils sont désormais conservés : Dresde, Madrid, Paris, Mexico. Le codex de Dresde est généralement considéré comme le plus important des quatre. Lors de la conquête espagnole du Yucatan au , il existait de nombreux livres semblables qui furent par la suite détruits sur une large échelle par les Conquistadors et les prêtres.
Transformeurvignette|Schéma représentant l'architecture générale d'un transformeur. Un transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). Dès 2020, les transformeurs commencent aussi à trouver une application en matière de vision par ordinateur par la création des vision transformers (ViT).
Visualisation de donnéesvignette|upright=2|Carte figurative des pertes successives en hommes de l'armée française dans la campagne de Russie 1812-1813, par Charles Minard, 1869. La visualisation des données (ou dataviz ou représentation graphique de données) est un ensemble de méthodes permettant de résumer de manière graphique des données statistiques qualitatives et surtout quantitatives afin de montrer les liens entre des ensembles de ces données. Cette fait partie de la science des données.
Deep belief networkIn machine learning, a deep belief network (DBN) is a generative graphical model, or alternatively a class of deep neural network, composed of multiple layers of latent variables ("hidden units"), with connections between the layers but not between units within each layer. When trained on a set of examples without supervision, a DBN can learn to probabilistically reconstruct its inputs. The layers then act as feature detectors. After this learning step, a DBN can be further trained with supervision to perform classification.
Stèle mayaLes stèles mayas sont des monuments qui ont été sculptés par les artistes de la civilisation mésoaméricaine maya. Ces stèles sont des pierres de forme allongée et souvent plus larges qu'épaisses, qui ont été sculptées (le plus souvent en bas-relief, mais on en trouve aussi en haut-relief, et même certaines vierges d'inscriptions) et placées à la verticale. Elles sont souvent associées à des pierres circulaires dénommés autels, bien que leur fonction réelle soit incertaine.
Numération mayavignette|Représentation des vingt chiffres mayas à l'aide de traits et points. La numération maya est une numération de base vingt pratiquée dans la civilisation mésoaméricaine maya. Durant la période classique et post-classique, du , on a la trace d'une numération de position écrite savante, à sous-base quinaire, vigésimale à une irrégularité près. Les chiffres constitutifs de cette numération, de 1 à 19, possèdent plusieurs écritures possibles, ou bien sous forme de glyphes céphalomorphes, ou à l'aide d'un système répétitivo-additif de traits valant 5 et de points valant 1.
Text-to-image modelA text-to-image model is a machine learning model which takes an input natural language description and produces an image matching that description. Such models began to be developed in the mid-2010s, as a result of advances in deep neural networks. In 2022, the output of state of the art text-to-image models, such as OpenAI's DALL-E 2, Google Brain's , StabilityAI's Stable Diffusion, and Midjourney began to approach the quality of real photographs and human-drawn art.
Calendrier mayavignette|droite|Façade Est de la stelle C de Quiriguá, on lit la date du 13 (0) baktun, Katun 0, 0 tun, 18 (0) uinal, Kin 0, 4 et 8 Cumku ahau du début du compte long correspondant au 11 août (la façade Ouest indiquant 9 baktun, Latin 1, 0 tun, 18 (0) uinal, Kin 0, 6 Ahau 13 Yaxkin, soit le 26 août 455). Le calendrier maya était la version maya du calendrier mésoaméricain, composé de différents systèmes calendaires évoluant de manière concomitante.
Guerre chez les Mayasvignette|upright=1.5|La découverte des fresques de Bonampak, qui représentent des scènes clairement guerrières, a remis en question les anciennes théories qui présumaient que la civilisation maya classique était pacifiste (reconstitution exposée au musée national d'anthropologie de Mexico). La guerre chez les Mayas de l'époque mésoaméricaine est un sujet d'étude mayaniste qui a fait l'objet d'une révision radicale au cours des dernières décennies.
Transformeur génératif pré-entraînédroite|vignette| Architecture du modèle GPT Le transformeur génératif pré-entraîné (ou GPT, de l’anglais generative pre-trained transformer) est une famille de modèles de langage généralement formée sur un grand corpus de données textuelles pour générer un texte de type humain. Il est construit en utilisant plusieurs blocs de l'architecture du transformeur. Ils peuvent être affinés pour diverses tâches de traitement du langage naturel telles que la génération de texte, la traduction de langue et la classification de texte.
Apprentissage par renforcement profondL'apprentissage par renforcement profond (en anglais : deep reinforcement learning ou deep RL) est un sous-domaine de l'apprentissage automatique (en anglais : machine learning) qui combine l'apprentissage par renforcement et l'apprentissage profond (en anglais : deep learning). L'apprentissage par renforcement considère le problème d'un agent informatique (par exemple, un robot, un agent conversationnel, un personnage dans un jeu vidéo, etc.) qui apprend à prendre des décisions par essais et erreurs.
Réseau neuronal résidueldroite|vignette| Forme canonique d'un réseau neuronal résiduel. Une couche l − 1 est ignoré sur l'activation de l − 2. Un réseau neuronal résiduel ( ResNet ) est un réseau neuronal artificiel (ANN). Il s'agit d'une variante du HighwayNet , le premier réseau neuronal à action directe très profond avec des centaines de couches, beaucoup plus profond que les réseaux neuronaux précédents. Les sauts de connexion ou "raccourcis" sont utilisés pour passer par-dessus certaines couches ( les HighwayNets peuvent également avoir des poids pour les saut eux-mêmes, grâce à une matrice de poids supplémentaire pour leurs portes).
Art maya300px|thumb|Un exemple d'écriture maya. L'art maya est considéré par comme étant le plus sophistiqué et le plus beau de toute l'Amérique précolombienne. Le style distinct de l'art maya qui se développe durant la période préclassique (1500 à 250 ), lors de l'Époque I et II, reçut les influences de la civilisation olmèque. D'autres civilisations mésoaméricaines, incluant Teotihuacan et les Toltèques, affectèrent l'art maya, qui atteignit son apogée durant la période de la civilisation classique ou Époque III (environ 200 à 900 ).
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.