Cristalvignette|Cristaux. vignette|Cristaux de sel obtenus par cristallisation lente dans une saumure à température ambiante. Un cristal est un solide dont les constituants (atomes, molécules ou ions) sont assemblés de manière régulière, par opposition au solide amorphe. Par « régulier » on veut généralement dire qu'un même motif est répété à l'identique un grand nombre de fois selon un réseau régulier, la plus petite partie du réseau permettant de recomposer l'empilement étant appelée une « maille ».
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Divergence (statistiques)En statistiques, une divergence est une fonction ou une fonctionnelle qui mesure la dissimilarité d'une loi de probabilité par rapport à une autre. Selon le contexte, elles peuvent être définies pour des lois, des mesures positives (non-normalisées), des vecteurs (par exemple sur l'espace des paramètres si l'on considère un modèle paramétrique), ou encore des matrices. Les divergences sont analogues à des distances au carré et permettent de généraliser la notion de distance aux variétés statistiques, mais il s'agit d'une notion plus faible dans la mesure où elles ne sont en général pas symétriques et ne vérifient pas l'inégalité triangulaire.
Structure cristallineLa structure cristalline (ou structure d'un cristal) donne l'arrangement des atomes dans un cristal. Ces atomes se répètent périodiquement dans l'espace sous l'action des opérations de symétrie du groupe d'espace et forment ainsi la structure cristalline. Cette structure est un concept fondamental pour de nombreux domaines de la science et de la technologie. Elle est complètement décrite par les paramètres de maille du cristal, son réseau de Bravais, son groupe d'espace et la position des atomes dans l'unité asymétrique la maille.
Cristallisation (chimie)vignette|Cristaux de sel obtenus par cristallisation lente dans une saumure à température ambiante. 250px|vignette La cristallisation est une opération unitaire du génie chimique consistant à isoler un produit sous forme de cristaux. La cristallisation est l’une des opérations physiques les plus anciennes pratiquées, avec l'évaporation de l’eau de mer pour isoler du sel.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Système cristallin cubiqueEn cristallographie, le système cristallin cubique (ou isométrique) est un système cristallin qui contient les cristaux dont la maille élémentaire est cubique, c'est-à-dire possédant quatre axes ternaires de symétrie. Il existe trois types de telles structures : cubique simple, cubique centrée et cubique à faces centrées. Classe cristalline Le tableau ci-dessous fournit les numéros de groupe d'espace des tables internationales de cristallographie du système cristallin cubique, les noms des classes cristallines, les notations Schoenflies, internationales, et des groupes ponctuels, des exemples, le type et les groupes d'espace.
MonocristalUn monocristal ou matériau monocristallin est un matériau solide constitué d'un unique cristal, formé à partir d’un seul germe. À l'opposé, un polycristal ou matériau polycristallin, est constitué lui d'une multitude de petits cristaux de taille et d'orientation variées. De façon exceptionnelle, on peut en trouver dans la nature, pour le béryl, le quartz, le gypse ; ainsi pour ce dernier la mine de Naica (Mexique) comporte des monocristaux de gypse atteignant treize mètres.
Simulation de phénomènesLa simulation de phénomènes est un outil utilisé dans le domaine de la recherche et du développement. Elle permet d'étudier les réactions d'un système à différentes contraintes pour en déduire les résultats recherchés en se passant d'expérimentation. Les systèmes technologiques (infrastructures, véhicules, réseaux de communication, de transport ou d'énergie) sont soumis à différentes contraintes et actions. Le moyen le plus simple d'étudier leurs réactions serait d'expérimenter, c'est-à-dire d'exercer l'action souhaitée sur l'élément en cause pour observer ou mesurer le résultat.
Cristal liquideUn cristal liquide est un état de la matière qui combine des propriétés d'un liquide ordinaire et celles d'un solide cristallisé. On exprime son état par le terme de « mésophase » ou « état mésomorphe » (du grec « de forme intermédiaire »). La nature de la mésophase diffère suivant la nature et la structure du mésogène, molécule à l'origine de la mésophase, ainsi que des conditions de température, de pression et de concentration. thumb|Rudolf Virchow.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Simulation informatiquevignette|upright=1|Une simulation informatique, sur une étendue de , de l'évolution du typhon Mawar produite par le Modèle météorologique Weather Research and Forecasting La simulation informatique ou numérique est l'exécution d'un programme informatique sur un ordinateur ou réseau en vue de simuler un phénomène physique réel et complexe (par exemple : chute d’un corps sur un support mou, résistance d’une plateforme pétrolière à la houle, fatigue d’un matériau sous sollicitation vibratoire, usure d’un roulem
Système cristallinUn 'système cristallin' est un classement des cristaux sur la base de leurs caractéristiques de symétrie, sachant que la priorité donnée à certains critères plutôt qu'à d'autres aboutit à différents systèmes. La symétrie de la maille conventionnelle permet de classer les cristaux en différentes familles cristallines : quatre dans l'espace bidimensionnel, six dans l'espace tridimensionnel. Une classification plus fine regroupe les cristaux en deux types de systèmes, selon que le critère de classification est la symétrie du réseau ou la symétrie morphologique.
Divergence de BregmanEn mathématiques, la divergence de Bregman est une mesure de la différence entre deux distributions dérivée d'une fonction potentiel U à valeurs réelles strictement convexe et continûment différentiable. Le concept a été introduit par en 1967. Par l'intermédiaire de la transformation de Legendre, au potentiel correspond un potentiel dual et leur différentiation donne naissance à deux systèmes de coordonnées duaux. Soit une fonction à valeurs réelles, strictement convexe et continûment différentiable définie sur un domaine convexe fermé .
F-divergenceIn probability theory, an -divergence is a function that measures the difference between two probability distributions and . Many common divergences, such as KL-divergence, Hellinger distance, and total variation distance, are special cases of -divergence. These divergences were introduced by Alfréd Rényi in the same paper where he introduced the well-known Rényi entropy. He proved that these divergences decrease in Markov processes.
Intelligence collectiveL'intelligence collective ou de groupe se manifeste par le fait qu'une équipe d'agents coopérants peut résoudre des problèmes plus efficacement que lorsque ces agents travaillent isolément . Le concept d’intelligence collective a été mobilisé pour aborder des collectifs d'agents très divers : des insectes vivant en colonies, des équipes d'humains, des robots collaboratifs, bien que dans ce dernier cas il conviendrait plutôt de parler d'intelligence distribuée. Pour Pierre Lévy, il s'agit d'une .
Action collective (sociologie)Une action collective est, en sociologie, un type d'action, collective, résultant d'une coordination non concertée par les agents des buts ou des formes de leurs actions individuelles. Les agents n’ont pas d’engagements les uns à l’égard des autres. La sociologie distingue deux types d'actions collectives : Lorsque la coordination est simplement induite par les circonstances, l’action collective est dite plurielle : les fins et moyens s’imposent ou sont suggérés. C'est le cas du « sauve qui peut » et des phénomènes de foule.
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.