Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Vidéo CDLe Vidéo CD ou VCD est un format vidéo exploitant le support disque compact (CD). Tout disque vidéo CD peut être lu sur un lecteur compatible ou sur certains ordinateurs personnels (PC), ainsi que sur certains lecteurs DVD de salon. Le standard VCD est créé en 1993 par le japonais Sony, le néerlandais Philips ainsi que les japonais Matsushita et JVC. Ses spécifications sont décrites dans le White Book. Un précédent standard (le Green Book) avait été défini par Philips pour le CD-i Digital Vidéo.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Gamme dynamiqueLa gamme dynamique, ou plage dynamique ou simplement dynamique est le rapport de la plus grande à la plus petite valeur d'une grandeur. Cette grandeur peut caractériser l'intensité d'un son ou d'une lumière. Elle est mesurée par une valeur logarithmique en base 10 (décibels) ou en base 2 (bits ou « diaphs »). En photographie, le terme décrit le rapport entre l'intensité lumineuse la plus élevée et l'intensité la plus faible qu'un appareil photographique peut capturer.