Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
ParameterA parameter (), generally, is any characteristic that can help in defining or classifying a particular system (meaning an event, project, object, situation, etc.). That is, a parameter is an element of a system that is useful, or critical, when identifying the system, or when evaluating its performance, status, condition, etc. Parameter has more specific meanings within various disciplines, including mathematics, computer programming, engineering, statistics, logic, linguistics, and electronic musical composition.
Paramètre d'échellevignette|Animation de la fonction de densité d'une loi normale (forme de cloche). L'écart-type est un paramètre d'échelle. En l'augmentant, on étale la distribution. En le diminuant, on la concentre. En théorie des probabilités et en statistiques, un paramètre d'échelle est un paramètre qui régit l'aplatissement d'une famille paramétrique de lois de probabilités. Il s'agit principalement d'un facteur multiplicatif. Si une famille de densités de probabilité, dépendant du paramètre θ est de la forme où f est une densité, alors θ est bien un paramètre d'échelle.
Divergence (statistiques)En statistiques, une divergence est une fonction ou une fonctionnelle qui mesure la dissimilarité d'une loi de probabilité par rapport à une autre. Selon le contexte, elles peuvent être définies pour des lois, des mesures positives (non-normalisées), des vecteurs (par exemple sur l'espace des paramètres si l'on considère un modèle paramétrique), ou encore des matrices. Les divergences sont analogues à des distances au carré et permettent de généraliser la notion de distance aux variétés statistiques, mais il s'agit d'une notion plus faible dans la mesure où elles ne sont en général pas symétriques et ne vérifient pas l'inégalité triangulaire.
Sciences de l'information et des bibliothèquesLes sciences de l'information et des bibliothèques (SIB) sont la convergence des deux champs disciplinaires que sont la bibliothéconomie et la science de l'information. Elles regroupent l'ensemble des savoirs et savoir-faire utiles à la gestion de l'information consignée. La notion de sciences de l'information se retrouve de plus en plus, depuis la fin du , dans les intitulés d'écoles ou de formations pour les professionnels de l'information consignée (personnes chargées de gérer une bibliothèque, un centre d'archives ou un service de documentation par exemple).
Divergence de BregmanEn mathématiques, la divergence de Bregman est une mesure de la différence entre deux distributions dérivée d'une fonction potentiel U à valeurs réelles strictement convexe et continûment différentiable. Le concept a été introduit par en 1967. Par l'intermédiaire de la transformation de Legendre, au potentiel correspond un potentiel dual et leur différentiation donne naissance à deux systèmes de coordonnées duaux. Soit une fonction à valeurs réelles, strictement convexe et continûment différentiable définie sur un domaine convexe fermé .
Ensemble de MandelbrotEn mathématiques, lensemble de Mandelbrot est une fractale définie comme l'ensemble des points c du plan complexe pour lesquels la suite de nombres complexes définie par récurrence par : est bornée. alt=Représentation de l'ensemble de Mandelbrot|vignette|L'ensemble de Mandelbrot (en noir) L'ensemble de Mandelbrot a été découvert par Gaston Julia et Pierre Fatou avant la Première Guerre mondiale. Sa définition et son nom actuel sont dus à Adrien Douady, en hommage aux représentations qu'en a réalisées Benoît Mandelbrot dans les années 1980.
Bibliothèque publiquevignette|250px|Bibliothèque publique moderne (Chambéry) Une bibliothèque publique est une bibliothèque tenue par une collectivité territoriale ou nationale ou tout autre type d'organisme public. Sa fonction consiste à donner accès au savoir, à l'information, à l'apprentissage tout au long de la vie, ainsi qu'aux œuvres de l'imagination par le biais d'une vaste registre de ressources, impliquant une diversité de médias, et des services qui sont disponibles équitablement à tous les membres de la communauté.
Statistique exhaustiveLes statistiques exhaustives sont liées à la notion d'information et en particulier à l'information de Fisher. Elles servent entre autres à améliorer des estimateurs grâce à l'usage du théorème de Rao-Blackwell et du théorème de Lehmann-Scheffé. Intuitivement, parler d'une statistique exhaustive revient à dire que cette statistique contient l'ensemble de l'information sur le(s) paramètre(s) de la loi de probabilité. Soit un vecteur d'observation de taille , dont les composantes sont indépendantes et identiquement distribués (iid).
Suite (mathématiques)vignette|Exemple de suite : les points bleus représentent ses termes. En mathématiques, une suite est une famille d'éléments — appelés ses « termes » — indexée par les entiers naturels. Une suite finie est une famille indexée par les entiers strictement positifs inférieurs ou égaux à un certain entier, ce dernier étant appelé « longueur » de la suite. Lorsque tous les éléments d'une suite (infinie) appartiennent à un même ensemble , cette suite peut être assimilée à une application de dans .
Statistical parameterIn statistics, as opposed to its general use in mathematics, a parameter is any measured quantity of a statistical population that summarises or describes an aspect of the population, such as a mean or a standard deviation. If a population exactly follows a known and defined distribution, for example the normal distribution, then a small set of parameters can be measured which completely describes the population, and can be considered to define a probability distribution for the purposes of extracting samples from this population.
Efficacité (statistiques)En statistique, lefficacité est une mesure de la qualité d'un estimateur, d'une expérimentation ou d'un test statistique. Elle permet d'évaluer le nombre d'observations nécessaires pour atteindre un seuil : plus un estimateur est efficace, plus l'échantillon d'observations nécessaire pour atteindre un objectif de précision sera petit. Lefficacité relative de deux procédures est le rapport de leurs efficacités, bien que le concept soit plus utilisé pour le rapport de l'efficacité d'une procédure donnée et d'une procédure théorique optimale.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Fonction caractéristique (probabilités)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la fonction caractéristique d'une variable aléatoire réelle est une quantité qui détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité, alors la fonction caractéristique est la transformée de Fourier inverse de la densité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire.
Bibliothèquevignette|redresse=1.2|Bibliothèque de l'abbaye de Saint-Gall (, patrimoine mondial, Suisse). vignette|redresse=1.2|Bibliothèque publique à Almere (Pays-Bas). Une bibliothèque (du grec ancien , de , « livre », et , « boîte, coffre, caisse ») est un lieu où l'on conserve une collection organisée de livres et matériels de référence. Il existe des bibliothèques privées des bibliothèques publiques, et des bibliothèques spécialisées entre autres.
Alignement de séquencesEn bio-informatique, l'alignement de séquences (ou alignement séquentiel) est une manière de représenter deux ou plusieurs séquences de macromolécules biologiques (ADN, ARN ou protéines) les unes sous les autres, de manière à en faire ressortir les régions homologues ou similaires. L'objectif de l'alignement est de disposer les composants (nucléotides ou acides aminés) pour identifier les zones de concordance. Ces alignements sont réalisés par des programmes informatiques dont l'objectif est de maximiser le nombre de coïncidences entre nucléotides ou acides aminés dans les différentes séquences.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Library technicianA library technician is a skilled library and information professional to perform the day-to-day functions of a library, and assists libraries in the acquisition, preparation, and organization of information. They also assist patrons in finding information. The widespread use of computerized information storage and retrieval systems has resulted in library technicians assisting in the handling of technical services (such as cataloguing). Especially in small village libraries, a library technician may be the only person (or one of only a few) staffing the library.
Fonction de répartitionEn théorie des probabilités, la fonction de répartition, ou fonction de distribution cumulative, d'une variable aléatoire réelle X est la fonction F_X qui, à tout réel x, associe la probabilité d’obtenir une valeur inférieure ou égale : Cette fonction est caractéristique de la loi de probabilité de la variable aléatoire.