Inégalité de ChernoffEn théorie des probabilités, l'inégalité de Chernoff permet de majorer la queue d'une loi de probabilité, c'est-à-dire qu'elle donne une valeur maximale de la probabilité qu'une variable aléatoire dépasse une valeur fixée. On parle également de borne de Chernoff. Elle est nommée ainsi en l'honneur du mathématicien Herman Chernoff. Elle est comparable à l'inégalité de Markov mais donne une borne exponentielle. Il existe de nombreux énoncés, et de nombreux cas particuliers.
Méthode de décodageEn théorie des codes, il existe plusieurs méthodes standards pour décoder des mots de code transmis sur un canal de communication avec bruit. Ce sont donc des techniques qui servent à effectuer l'opération inverse du codage de canal. Le décodage par vote majoritaire. Le décodage par observateur idéal. Le décodage par probabilité maximale. Le décodage par distance minimale. Le décodage par syndrome est une méthode de décodage très efficace pour un code linéaire sur un canal de communication avec bruit.
Théorème du codage de canalEn théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954.
Loi GammaEn théorie des probabilités et en statistiques, une distribution Gamma ou loi Gamma est un type de loi de probabilité de variables aléatoires réelles positives. La famille des distributions Gamma inclut, entre autres, la loi du χ2 et les distributions exponentielles et la distribution d'Erlang. Une distribution Gamma est caractérisée par deux paramètres k et θ et qui affectent respectivement la forme et l'échelle de la représentation graphique de sa fonction de densité.
Forme musicaleLe terme forme désigne, dans le domaine musical, la structure d'une œuvre musicale. Le travail d'analyse des œuvres musicales a notamment pour tâche de comprendre la forme des œuvres, qui peut être très simple (forme strophique, forme couplet-refrain) ou très complexe. Évidemment, le terme structure doit se comprendre à plusieurs niveaux, c'est-à-dire qu'une œuvre musicale pourra avoir une forme générale en un ou plusieurs mouvements, dans l'un des mouvements il y aura une forme en plusieurs sections, et dans chaque section il y aura des phrases distinctes.
Taux d'intérêtLe taux d'intérêt d'un prêt ou d'un emprunt fixe la rémunération du capital prêté (exprimée en pourcentage du montant prêté) versée par l'emprunteur au prêteur. Le taux et les modalités de versement de cette rémunération sont fixés lors de la conclusion du contrat de prêt. Ce pourcentage tient compte de la durée du prêt, de la nature des risques encourus et des garanties offertes par le prêteur. Les taux d'intérêt sont utilisés dans de multiples domaines, des instruments financiers jusqu'aux produits d'épargne (compte d'épargne), en passant par les obligations.
Video codecA video codec is software or hardware that compresses and decompresses digital video. In the context of video compression, codec is a portmanteau of encoder and decoder, while a device that only compresses is typically called an encoder, and one that only decompresses is a decoder. The compressed data format usually conforms to a standard video coding format. The compression is typically lossy, meaning that the compressed video lacks some information present in the original video.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Forme sonateEn musique classique, la forme sonate est une forme musicale qui est composée de trois parties : l'exposition, le développement et la réexposition (ou récapitulation). La forme sonate est le plus souvent fondée sur deux thèmes musicaux, utilisés lors de l'exposition et la récapitulation, et souvent combinés ou se répondant lors du développement. Attention à ne pas confondre la forme sonate et la sonate. Généralement, le premier mouvement d'une sonate - mais aussi d'une symphonie, d'un concerto - est de forme sonate.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Forme binaireEn musique classique, la forme binaire est une structure musicale particulière de l'œuvre musicale composée de deux sections — A et B — exécutées deux fois chacune, soit : AABB. Sur une partition, la forme binaire est le plus souvent notée au moyen de barres de reprise. La section A s'achève habituellement dans une tonalité voisine — très souvent, la tonalité de la dominante. La section B au contraire, commence par cette tonalité voisine, et, après un nombre variable de modulations, s'achève sur la tonalité de départ.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Débit binaireLe débit binaire est une mesure de la quantité de données numériques transmises par unité de temps. Selon ses définitions normatives, il s'exprime en bits par seconde (bit/s, b/s ou bps) ou un de ses multiples en employant les préfixes du Système international (SI) : kb/s (kilobits par seconde), Mb/s (mégabits par seconde) et ainsi de suite. Dans le domaine de l'informatique, le débit est parfois exprimé en octets par seconde. Un octet équivaut à 8 bits, nombre de bits correspondant aux premières et aux plus simples des machines, et permettant de transmettre un caractère alphanumérique.
Standardisationvignette|Une réplique du prototype du kilogramme à la Cité des Sciences et de l'Industrie, Paris, France. La standardisation est l'action de ramener un produit, une production à une norme, à un modèle unique ou à un petit nombre de modèles aux caractéristiques définies : standardiser des modèles de robinets. La standardisation peut s'appliquer à différents domaines dont : les normes et standards techniques ; les standards de métadonnées ; les tests psychologiques, dans le cas d'une évaluation différentielle ; en linguistique, la standardisation (ou normalisation) est la suppression de la variation dialectale ou sociale par l'élaboration d'une norme linguistique.
Code parfait et code MDSLes codes parfaits et les codes à distance séparable maximale (MDS), sont des types de codes correcteurs d'erreur. Un code correcteur est un code permettant au récepteur de détecter ou de corriger des altérations à la suite de la transmission ou du stockage. Elle est rendue possible grâce à une redondance de l'information. Un code est dit parfait s'il ne contient aucune redondance inutile. Le concept correspond à un critère d'optimalité. Un code est dit MDS s'il vérifie un autre critère d'optimalité s'exprimant dans le contexte des codes linéaires.
Forme quadratiquethumb|L'annulation d'une forme quadratique donne le cône de lumière de la relativité restreinte, son signe fait la différence entre les événements accessibles ou inaccessibles dans l'espace-temps. En mathématiques, une forme quadratique est un polynôme homogène de degré 2 avec un nombre quelconque de variables. Les formes quadratiques d'une, deux et trois variables sont données respectivement par les formules suivantes (a,b,c,d,e,f désignant des coefficients) : L'archétype de forme quadratique est la forme x + y + z sur R, qui définit la structure euclidienne et dont la racine carrée permet de calculer la norme d'un vecteur.
Taux de natalitéLe taux de natalité (ou taux brut de natalité) est le rapport entre le nombre annuel de naissances vivantes et la population totale moyenne sur une période et dans un territoire donné. Il s'exprime souvent en pour mille (‰). TN s'exprime habituellement en ‰ (pour mille). Le taux de natalité se calcule : n est le nombre de naissances par année et p est la population totale moyenne au cours de la même année, souvent estimée comme la moyenne des effectifs de cette population en début et en fin d'année.