Binary erasure channelIn coding theory and information theory, a binary erasure channel (BEC) is a communications channel model. A transmitter sends a bit (a zero or a one), and the receiver either receives the bit correctly, or with some probability receives a message that the bit was not received ("erased") . A binary erasure channel with erasure probability is a channel with binary input, ternary output, and probability of erasure . That is, let be the transmitted random variable with alphabet .
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Théorème du codage de canalEn théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Alphabetthumb|Lettres de l'alphabet phénicien. Un alphabet (de alpha et bêta, les deux premières lettres de l’alphabet grec) est un système d'écriture constitué d'un ensemble de symboles dont chacun représente, par exemple, un des phonèmes d’une langue. Chacun des symboles d'un alphabet ou graphèmes, est appelé « lettre ». Dans les cas les plus simples, chaque lettre correspond à un phonème de la langue et inversement.
Code de répétitionLe code de répétition est une solution simple pour se prémunir des erreurs de communication dues au bruit dans un canal binaire symétrique. C'est une technique de codage de canal, c'est-à-dire un code correcteur. Il s'agit d'envoyer plusieurs copies de chaque bit à être transmis. Autrement dit, ce code de répétition encode la transmission des bits ainsi (sur trois bits) : La première chaîne de caractères est appelée le 0 logique et la deuxième, le 1 logique puisqu'elles jouent le rôle de 0 et 1 respectivement.
Alphabet grecLalphabet grec est un alphabet bicaméral de vingt-quatre lettres, principalement utilisé pour écrire la langue grecque depuis la fin du ou le début du C'est le premier et le plus ancien alphabet, dans l'acception la plus réduite de ce mot, car il note chaque voyelle et consonne avec un graphème séparé. Le grec moderne utilise encore cet alphabet de nos jours. Par le passé, les lettres ont servi également pour la numération grecque, depuis le , mais les chiffres arabes tendent à les remplacer en Grèce.
Turbo codeTurbo code est le nom générique d'un code correcteur imaginé dans les années 1990, qui permet de s'approcher aussi près qu'on le souhaite de la limite de Shannon. Les turbo codes représentent une percée majeure dans le domaine des communications numériques. Ils sont utilisés dans de nombreux standards de téléphonie mobile (UMTS, LTE), de communications par satellites (Inmarsat, DVB-RCS) ou de courants porteurs en ligne. Leur inventeur est Claude Berrou qui breveta cette technologie pour le compte de France Télécom et TDF.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Histoire de l'alphabet grecL’alphabet grec est, historiquement, à l'origine des alphabets modernes servant à écrire les langues européennes. Ce n’est pas une création ex nihilo, car il est dérivé des alphabets utilisés sur la côte de Phénicie, l’alphabet phénicien. Celui-ci est à proprement parler un abjad, un alphabet consonantique. Cependant, vers le , des matres lectionis y apparurent pour indiquer certaines voyelles, surtout des voyelles finales.
NubilitéLa désigne l'état d'une personne en âge de se marier et, par métonymie, peut aussi être un synonyme de puberté. L'âge nubile dépend du pays considéré et il peut être différent pour les filles et les garçons. Il peut différer de la majorité matrimoniale qui désigne l'âge où un individu peut se marier sans l'accord de ses parents ou tuteurs légaux.
Alphabet syriaqueL’alphabet syriaque est utilisé pour écrire le syriaque. Cet alphabet dérive de l'alphabet araméen et est à l'origine de l'abjad arabe et de l'alphabet sogdien, qui donne aujourd'hui le mongol bichig (alphabet mongol), le todo bitchig (alphabet oïrat) et l'alphabet mandchou. Le syriaque, comme l'arabe ou l'hébreu, est écrit de droite à gauche. L'écriture est cursive, avec quelques lettres rattachées les unes aux autres. L'alphabet comporte 22 lettres, qui sont toutes en principe des consonnes.
Alphabet cyrillique serbeL’alphabet cyrillique moderne serbe (en Српска ћирилица / Srpska ćirilica) a 30 lettres cyrilliques et chacune d’entre elles correspond à un son. L’alphabet a été réformé par Vuk Stefanović Karadžić en 1818 et devient l’écriture officielle de la Serbie en 1868. Vuk Stefanović Karadžić l’a réformé en retirant quelques lettres, pour un objectif d'unir les slaves du sud. Il a éliminé certaines lettres comme : і, ю, й, ъ, ь, щ, я et d’autres, et il a ajouté six nouvelles lettres ћ, ђ, љ, њ, ј et џ.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Cas grammaticalEn linguistique, le cas est au sens large un trait grammatical principalement associé au nom, au pronom, à l'adjectif et au déterminant, et exprimant leur fonction syntaxique dans la proposition, ou leur rôle sémantique en rapport avec le procès exprimé par le verbe. Par exemple, l’accusatif est le cas du complément d'objet direct (fonction syntaxique) ; l’ est le cas indiquant le lieu de l’intérieur duquel on sort (rôle sémantique).
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Concatenated error correction codeIn coding theory, concatenated codes form a class of error-correcting codes that are derived by combining an inner code and an outer code. They were conceived in 1966 by Dave Forney as a solution to the problem of finding a code that has both exponentially decreasing error probability with increasing block length and polynomial-time decoding complexity. Concatenated codes became widely used in space communications in the 1970s.
XiXi (capitale Ξ, minuscule ξ ; en grec ξι) est la lettre de l'alphabet grec, précédée par nu et suivie par omicron. Dérivée de la lettre samech x12px de l'alphabet phénicien, une variante graphique de cette lettre est l'ancêtre de la lettre X de l'alphabet latin. En grec moderne, la lettre xi représente une double consonne, : une consonne occlusive vélaire sourde, , suivie d'une consonne fricative alvéolaire sourde, , ainsi qu'une double consonne, : une consonne occlusive vélaire voisée, , suivie d'une consonne fricative alvéolaire voisée, .
Code de HadamardLe code de Hadamard est un code correcteur, nommé d'après Jacques Hadamard, à taux de transfert extrêmement faible mais à grande distance, couramment utilisé pour la détection et la correction d'erreurs lors de la transmission de messages sur des canaux très bruyants ou peu fiables. Dans la notation standard de la théorie du codage pour les codes en bloc, le code de Hadamard est un code , c'est-à-dire un code linéaire sur un alphabet binaire, a une longueur de bloc de , la longueur (ou la dimension) du message , et une distance minimale .