Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Méthode de décodageEn théorie des codes, il existe plusieurs méthodes standards pour décoder des mots de code transmis sur un canal de communication avec bruit. Ce sont donc des techniques qui servent à effectuer l'opération inverse du codage de canal. Le décodage par vote majoritaire. Le décodage par observateur idéal. Le décodage par probabilité maximale. Le décodage par distance minimale. Le décodage par syndrome est une méthode de décodage très efficace pour un code linéaire sur un canal de communication avec bruit.
Répéteurthumb|Un répéteur sans-fil Un répéteur désigne un couple de fréquences modulées ou un équipement électronique combinant un récepteur et un émetteur; ce dispositif est notamment censé compenser les pertes de transmission d'un média (ligne, fibre, radio, télédiffusion, en traitant et en amplifiant éventuellement le signal, sans en modifier le contenu, ni les données. Dans le domaine de la télédiffusion ou des télécommunications, un répéteur ou en anglais transponder, désigne un canal de modulation exploité dans les transmissions radio, de télévision et de données numériques qui véhicule des signaux exploités dans d'autres fréquences d'émission.
Codage entropiqueLe codage entropique (ou codage statistique à longueur variable) est une méthode de codage de source sans pertes, dont le but est de transformer la représentation d'une source de données pour sa compression ou sa transmission sur un canal de communication. Les principaux types de codage entropique sont le codage de Huffman et le codage arithmétique. Le codage entropique utilise des statistiques sur la source pour construire un code, c'est-à-dire une application qui associe à une partie de la source un mot de code, dont la longueur dépend des propriétés statistiques de la source.
Block codeIn coding theory, block codes are a large and important family of error-correcting codes that encode data in blocks. There is a vast number of examples for block codes, many of which have a wide range of practical applications. The abstract definition of block codes is conceptually useful because it allows coding theorists, mathematicians, and computer scientists to study the limitations of all block codes in a unified way.
Viterbi decoderA Viterbi decoder uses the Viterbi algorithm for decoding a bitstream that has been encoded using a convolutional code or trellis code. There are other algorithms for decoding a convolutionally encoded stream (for example, the Fano algorithm). The Viterbi algorithm is the most resource-consuming, but it does the maximum likelihood decoding. It is most often used for decoding convolutional codes with constraint lengths k≤3, but values up to k=15 are used in practice. Viterbi decoding was developed by Andrew J.
Débit binaireLe débit binaire est une mesure de la quantité de données numériques transmises par unité de temps. Selon ses définitions normatives, il s'exprime en bits par seconde (bit/s, b/s ou bps) ou un de ses multiples en employant les préfixes du Système international (SI) : kb/s (kilobits par seconde), Mb/s (mégabits par seconde) et ainsi de suite. Dans le domaine de l'informatique, le débit est parfois exprimé en octets par seconde. Un octet équivaut à 8 bits, nombre de bits correspondant aux premières et aux plus simples des machines, et permettant de transmettre un caractère alphanumérique.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Faisceau hertzienvignette|Tour hertzienne du Gemeindealpe, Autriche. vignette|Relais hertzien. Un faisceau hertzien est un système de transmission de signaux mono-directionnel ou bi-directionnel et généralement permanent, entre deux sites géographiques fixes. Il exploite le support d'ondes radioélectriques, par des fréquences porteuses allant de (gamme des micro-ondes), focalisées et concentrées grâce à des antennes directives.
Video codecA video codec is software or hardware that compresses and decompresses digital video. In the context of video compression, codec is a portmanteau of encoder and decoder, while a device that only compresses is typically called an encoder, and one that only decompresses is a decoder. The compressed data format usually conforms to a standard video coding format. The compression is typically lossy, meaning that the compressed video lacks some information present in the original video.
Taux de changeLe taux de change d'une devise (une monnaie) est le coût (autrement dit le prix) de cette devise par rapport à une autre. On parle aussi de la « parité d'une monnaie ». Mais ce dernier mot constitue un faux-ami très gênant avec l'anglais « parity » qui indique une égalité absolue. Les taux de change, cotés sur les marchés des changes, varient en permanence ; ils varient également en fonction de la place de cotation Par exemple, le taux de change de l'euro en dollar américain sera noté : EUR/USD (ou EURUSD) = 1,3120 (ce qui signifie que vaut américain), alors que le taux de change du dollar en yen sera noté USD/JPY (ou USDJPY) = 101,2954.
Non Return to ZeroDans le code en ligne NRZ, pour non-return-to-zero en anglais, le bit 1 est représenté par un état significatif (par exemple, une tension clairement positive), et le bit 0 par un autre état significatif (par exemple, une tension clairement négative). Il n'existe pas d'état intermédiaire. Le codage est à deux états : le signal se trouve dans un état (par exemple à l’état haut) lorsque des 1 logiques sont transmis, et dans l'autre état (à l’état bas dans l'exemple) lorsque des 0 logiques sont transmis.
Paradigme (programmation)vignette|Schéma simple à 3 blocs, avec des connexions étiquetées Le paradigme de programmation est la façon (parmi d'autres) d'approcher la programmation informatique et de formuler les solutions aux problèmes et leur formalisation dans un langage de programmation approprié. Ce n'est pas de la méthodologie contenant une méthode ; cette dernière organise le traitement des problèmes reconnus dans l'écosystème concerné pour aboutir à la solution conceptuelle et programme exécutable.
Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.
Code universelEn compression de données, un code universel est un code préfixe dont les mots ont une longueur dont l'espérance mathématique ne dépasse pas celle de la longueur des mots du code optimal à un facteur constant près. Les codages gamma, delta et omega d'Elias, les codages Zeta, de Fibonacci, de Levenshtein, d'Even-Rodeh produisent des codes préfixes et universels. Les codages unaire, de Rice et de Golomb produisent des codes préfixes non universels. Codage entropique Catégorie:Codage entropique Catégorie:Théo
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Régime de changeLe régime de change, ou régime de taux de change, d’une zone monétaire fait partie de la politique monétaire adoptée par les autorités monétaires, qui détermine en grande partie le comportement du taux de change de la monnaie vis-à-vis des autres devises (ou d'une devise en particulier). Changes flottants Le régime de change flottant est basé sur la détermination du cours de change de chaque monnaie par rapport aux autres par la confrontation de l'offre et la demande des diverses devises sur le marché des changes (appelé communément "forex") sans intervention des autorités monétaires.
Taux de natalitéLe taux de natalité (ou taux brut de natalité) est le rapport entre le nombre annuel de naissances vivantes et la population totale moyenne sur une période et dans un territoire donné. Il s'exprime souvent en pour mille (‰). TN s'exprime habituellement en ‰ (pour mille). Le taux de natalité se calcule : n est le nombre de naissances par année et p est la population totale moyenne au cours de la même année, souvent estimée comme la moyenne des effectifs de cette population en début et en fin d'année.