Block codeIn coding theory, block codes are a large and important family of error-correcting codes that encode data in blocks. There is a vast number of examples for block codes, many of which have a wide range of practical applications. The abstract definition of block codes is conceptually useful because it allows coding theorists, mathematicians, and computer scientists to study the limitations of all block codes in a unified way.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Méthode de décodageEn théorie des codes, il existe plusieurs méthodes standards pour décoder des mots de code transmis sur un canal de communication avec bruit. Ce sont donc des techniques qui servent à effectuer l'opération inverse du codage de canal. Le décodage par vote majoritaire. Le décodage par observateur idéal. Le décodage par probabilité maximale. Le décodage par distance minimale. Le décodage par syndrome est une méthode de décodage très efficace pour un code linéaire sur un canal de communication avec bruit.
Réseau de télévisionUn réseau de télévision est un réseau de télécommunications destiné à la distribution de programmes télévisés. Cependant, le terme désigne désormais un groupement d'affiliés régionaux autour d'une chaîne de télévision centrale, offrant une programmation à plusieurs stations de télévision locales. Jusqu'au milieu des années 1980, la programmation télévisée de la plupart des pays du monde a été dominée par un petit nombre de réseaux de diffusion.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Indice de réfractionvignette|Image des fronts d'onde émis par une source ponctuelle mettant en évidence le phénomène de réfraction. La zone inférieure située sous la ligne grise a un plus grand indice de réfraction et donc une vitesse de propagation proportionnellement inférieure à celle de la zone supérieure (pour une raison de clarté, la réflexion partielle n'est pas montrée).
Biréfringencedroite|vignette|400px|Le texte apparait en double après avoir traversé le cristal de calcite. C'est la double réfraction, un phénomène caractéristique des milieux biréfringents. La biréfringence est la propriété physique d'un matériau dans lequel la lumière se propage de façon anisotrope. Dans un milieu biréfringent, l'indice de réfraction n'est pas unique, il dépend de la direction de polarisation de l'onde lumineuse. Un effet spectaculaire de la biréfringence est la double réfraction par laquelle un rayon lumineux pénétrant dans le cristal est divisé en deux.
Cryptographie post-quantiqueLa cryptographie post-quantique est une branche de la cryptographie visant à garantir la sécurité de l'information face à un attaquant disposant d'un calculateur quantique. Cette discipline est distincte de la cryptographie quantique, qui vise à construire des algorithmes cryptographiques utilisant des propriétés physiques, plutôt que mathématiques, pour garantir la sécurité. En l'effet, les algorithmes quantiques de Shor, de Grover et de Simon étendent les capacités par rapport à un attaquant ne disposant que d'un ordinateur classique.
Quantum channelIn quantum information theory, a quantum channel is a communication channel which can transmit quantum information, as well as classical information. An example of quantum information is the state of a qubit. An example of classical information is a text document transmitted over the Internet. More formally, quantum channels are completely positive (CP) trace-preserving maps between spaces of operators. In other words, a quantum channel is just a quantum operation viewed not merely as the reduced dynamics of a system but as a pipeline intended to carry quantum information.
Channel 4Channel 4 ( « Chaîne 4 ») est une chaîne de télévision britannique publique et gratuite créée en 1982. vignette|160px|Logo de Channel 4 du 02 novembre 1982 au 14 octobre 1996. La licence de diffusion est accordée par une loi votée au parlement à Channel 4, la première chaîne entièrement privée du pays. Channel 4 lance ses programmes le à 16:45 avec Countdown présenté par Richard Whiteley et Carol Vorderman. La marque automobile Vauxhall est le premier annonceur de la chaîne.
PhotoélasticimétrieLa photoélasticimétrie est une méthode expérimentale permettant de visualiser les contraintes existant à l'intérieur d'un solide grâce à sa photoélasticité. C'est une méthode principalement optique se basant sur la biréfringence acquise par les matériaux soumis à des contraintes. On l'utilise souvent dans les cas où les méthodes mathématiques et informatiques deviennent trop lourdes à mettre en œuvre. La photoélasticimétrie fut développée au début du par Ernest George Coker et de l'université de Londres.
Baume du CanadaLe baume du Canada, appelé aussi térébenthine du Canada ou gomme de sapin, est une térébenthine issue de la résine du sapin baumier. La résine, dissoute dans des huiles essentielles, est visqueuse, collante et incolore (parfois jaunâtre) après évaporation des huiles essentielles. Grâce à sa grande qualité de transparence et à son indice de réfraction (1,538) proche de celui du verre, ce baume était surtout utilisé en optique pour coller les lentilles d'objectifs et pour accoler des objets de verre dans certains prismes ou polariseurs.
Cryptographie quantiqueLa cryptographie quantique consiste à utiliser les propriétés de la physique quantique pour établir des protocoles de cryptographie qui permettent d'atteindre des niveaux de sécurité qui sont prouvés ou conjecturés non atteignables en utilisant uniquement des phénomènes classiques (c'est-à-dire non-quantiques). Un exemple important de cryptographie quantique est la distribution quantique de clés, qui permet de distribuer une clé de chiffrement secrète entre deux interlocuteurs distants, tout en assurant la sécurité de la transmission grâce aux lois de la physique quantique et de la théorie de l'information.
Taux d'erreurLe taux d'erreur ou B.E.R., abréviation de l'expression anglaise Bit Error Rate, désigne une valeur, relative au taux d'erreur, mesurée à la réception d'une transmission numérique, relative au niveau d'atténuation et/ou de perturbation d'un signal transmis. Ce phénomène survient également lors de l'échantillonnage (numérisation), lors de la lecture et de la sauvegarde des données (CD-R, DVD-R, disque dur, RAM...). Ce taux détermine le nombre d'erreurs apparues entre la modulation et juste après la démodulation du signal.
Angle de Brewstervignette|upright=1.5|Résultat d'une simulation électromagnétique réalisée avec le programme Moosh montrant un faisceau réfracté à l'incidence de Brewster par un dioptre entre deux milieux d'indice et . L'angle de Brewster est un angle d'incidence particulier pour lequel la lumière réfractée et réfléchie possèdent des propriétés de polarisation particulières. Lorsqu'un faisceau lumineux est incident sur un dioptre à cet angle, s'il est polarisé dans le plan d'incidence (polarisation dite p ou TM) il est alors totalement transmis (pas de réflexion), sinon il y aura un faisceau réfléchi qui sera entièrement polarisé.
Complexité de KolmogorovEn informatique théorique et en mathématiques, plus précisément en théorie de l'information, la complexité de Kolmogorov, ou complexité aléatoire, ou complexité algorithmique d'un objet — nombre, , chaîne de caractères — est la taille du plus petit algorithme (dans un certain langage de programmation fixé) qui engendre cet objet. Elle est nommée d'après le mathématicien Andreï Kolmogorov, qui publia sur le sujet dès 1963. Elle est aussi parfois nommée complexité de Kolmogorov-Solomonoff.