Coût moyenLe coût moyen est le coût total divisé par le nombre d'unités ou de personnes concernées par ce coût. Le coût moyen permet de déterminer une zone de bénéfice pour l'activité de l'organisation. Le coût total moyen CTM est donc le rapport entre le coût total et la quantité produite tel que : . Par exemple, le coût moyen de la production d’une voiture, lorsqu'on produit cent () voitures pour (), est de : en effet, . Coût moyen pondéré du capital Coût moyen incrémental de long terme Coût marginal Prix Moyen Ca
Inégalité de ChernoffEn théorie des probabilités, l'inégalité de Chernoff permet de majorer la queue d'une loi de probabilité, c'est-à-dire qu'elle donne une valeur maximale de la probabilité qu'une variable aléatoire dépasse une valeur fixée. On parle également de borne de Chernoff. Elle est nommée ainsi en l'honneur du mathématicien Herman Chernoff. Elle est comparable à l'inégalité de Markov mais donne une borne exponentielle. Il existe de nombreux énoncés, et de nombreux cas particuliers.
Coût marginalLe coût marginal est le coût induit par une variation de l'activité. Pour les économistes, cette variation peut être infinitésimale, et le coût marginal est alors la dérivée de la fonction de coût. Pour les comptables, le coût marginal est défini comme la variation du coût engendrée par la production ou la vente d'une unité supplémentaire (ce qui est plus concret qu'un calcul de dérivée). Dans la réalité du monde de l'entreprise, la variation d'activité correspond généralement à une commande supplémentaire (qui peut donc porter sur un lot de plusieurs produits).
Cost curveIn economics, a cost curve is a graph of the costs of production as a function of total quantity produced. In a free market economy, productively efficient firms optimize their production process by minimizing cost consistent with each possible level of production, and the result is a cost curve. Profit-maximizing firms use cost curves to decide output quantities. There are various types of cost curves, all related to each other, including total and average cost curves; marginal ("for each additional unit") cost curves, which are equal to the differential of the total cost curves; and variable cost curves.
Average variable costIn economics, average variable cost (AVC) is a firm's variable costs (labour, electricity, etc.) divided by the quantity of output produced. Variable costs are those costs which vary with the output level: where = variable cost, = average variable cost, and = quantity of output produced. Average variable cost plus average fixed cost equals average total cost: A firm would choose to shut down if the price of its output is below average variable cost at the profit-maximizing level of output (or, more generally if it sells at multiple prices, its average revenue is less than AVC).
Code préfixeUn code préfixe (ou code instantané) est un code ayant la particularité de ne posséder aucun mot du code ayant pour préfixe un autre mot du code. Autrement dit, aucun mot du code (ou symbole) d'un code préfixe ne peut se prolonger pour donner un autre mot du code (ou symbole). C'est une propriété souvent recherchée pour les codes à longueur variable, afin de pouvoir les décoder lorsque plusieurs symboles sont concaténés les uns aux autres sans qu'il soit nécessaire d'utiliser des séparateurs (les séparateurs rendent préfixes des codes non préfixes).
Majorant ou minorantEn mathématiques, soient (E , ≤) un ensemble ordonné et F une partie de E ; un élément x de E est : un majorant de F s'il est supérieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F : ; un minorant de F s'il est inférieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F :. Si F possède un majorant x alors on dit que F est une partie majorée. Si F possède un minorant x alors on dit que F est une partie minorée.
Code (information)vignette|redresse|Code morse international. En sciences et techniques, notamment en informatique et en théorie de l'information, un code est une règle de transcription qui, à tout symbole d'un jeu de caractères (alphabet source) assigne de manière univoque un caractère ou une chaîne de caractères pris dans un jeu de caractères éventuellement différent (alphabet cible). Un exemple est le code morse qui établit une relation entre lettres de l'alphabet latin et des séquences de sons courts et longs.
Alphabet grecLalphabet grec est un alphabet bicaméral de vingt-quatre lettres, principalement utilisé pour écrire la langue grecque depuis la fin du ou le début du C'est le premier et le plus ancien alphabet, dans l'acception la plus réduite de ce mot, car il note chaque voyelle et consonne avec un graphème séparé. Le grec moderne utilise encore cet alphabet de nos jours. Par le passé, les lettres ont servi également pour la numération grecque, depuis le , mais les chiffres arabes tendent à les remplacer en Grèce.
Alphabet hébreualt=|vignette|281x281px Lalphabet hébreu (he, haˈalefbet haivri) est un alphabet consonantique (abjad) dont les graphèmes actuels se développèrent à partir de ceux de l’alphabet araméen. Les locuteurs de l'hébreu appellent leur alphabet alefbet, alef et bet en étant les deux premières lettres. Cet alphabet est utilisé pour écrire l'hébreu, mais aussi le yiddish (ou judéo-allemand), le shuadit (ou judéo-provençal) et aussi autrefois d’autres langues sémitiques ou encore régionalement des langues indo-européennes ou ouralo-altaïques parlées par la diaspora juive.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Coût moyen pondéré du capitalLe coût moyen pondéré du capital (CMPC), ou weighted average cost of capital (WACC) en anglais, est un indicateur économique, représentant le taux de rentabilité annuel moyen attendu par les actionnaires et les créanciers, en retour de leur investissement. Le CMPC mesure la capacité de l'entité économique (entreprise) de valoriser les capitaux (propres) qui lui ont été confiés par les actionnaires et investisseurs. Pour l'entreprise, c'est un paramètre indispensable pour valider les investissements futurs.
Average fixed costIn economics, average fixed cost (AFC) is the fixed costs of production (FC) divided by the quantity (Q) of output produced. Fixed costs are those costs that must be incurred in fixed quantity regardless of the level of output produced. Average fixed cost is the fixed cost per unit of output. As the total number of units of the good produced increases, the average fixed cost decreases because the same amount of fixed costs is being spread over a larger number of units of output.
Loi de probabilité d'entropie maximaleEn statistique et en théorie de l'information, une loi de probabilité d'entropie maximale a une entropie qui est au moins aussi grande que celle de tous les autres membres d'une classe spécifiée de lois de probabilité. Selon le principe d'entropie maximale, si rien n'est connu sur une loi , sauf qu'elle appartient à une certaine classe (généralement définie en termes de propriétés ou de mesures spécifiées), alors la loi avec la plus grande entropie doit être choisie comme la moins informative par défaut.
Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Inégalité de concentrationDans la théorie des probabilités, les inégalités de concentration fournissent des bornes sur la probabilité qu'une variable aléatoire dévie d'une certaine valeur (généralement l'espérance de cette variable aléatoire). Par exemple, la loi des grands nombres établit qu'une moyenne de variables aléatoires i.i.d. est, sous réserve de vérifier certaines conditions, proche de leur espérance commune. Certains résultats récents vont plus loin, en montrant que ce comportement est également vérifié par d'autres fonctions de variables aléatoires indépendantes.
Alphabet déséretL’alphabet déséret (en déséret : 𐐔𐐯𐑅𐐨𐑉𐐯𐐻 ou 𐐔𐐯𐑆𐐲𐑉𐐯𐐻) est une réforme phonologique de l’orthographe de l’anglais développée au milieu du par le conseil des régents de l’Université de Deseret (plus tard l’Université de l'Utah) sous la direction de Brigham Young, deuxième président de l’Église de Jésus-Christ des saints des derniers jours. Dans des déclarations publiques, Young prétendait que l’alphabet déséret était destiné à remplacer l’alphabet latin traditionnel par un alphabet alternatif, plus précis phonétiquement pour la langue anglaise.
Loi normale repliéeEn théorie des probabilités et en statistique, la loi normale repliée (ou loi de défaut de forme) est une loi de probabilité continue liée à la loi normale. Considérons une variable aléatoire de loi normale avec moyenne et variance , alors la variable aléatoire est de loi normale repliée. Ainsi on ne comptabilise que la valeur de la variable mais pas son signe. Le terme « repliée » vient du fait que la densité de la loi « à gauche » de x=0 est repliée sur la partie « à droite » de x=0 en prenant la valeur absolue.
Alphabet phonétique internationalL'alphabet phonétique international (API) est un alphabet utilisé pour la transcription phonétique des sons du langage parlé. Contrairement aux nombreuses autres méthodes de transcription qui se limitent à des familles de langues, l'API est conçu pour couvrir l'ensemble des langues du monde. Développé par des phonéticiens français et britanniques sous les auspices de l'Association phonétique internationale, il a été publié pour la première fois en 1888.
Inégalité de Bienaymé-TchebychevEn théorie des probabilités, l'inégalité de Bienaymé-Tchebychev, est une inégalité de concentration permettant de montrer qu'une variable aléatoire prendra avec une faible probabilité une valeur relativement lointaine de son espérance. Ce résultat s'applique dans des cas très divers, nécessitant la connaissance de peu de propriétés (seules l'espérance et la variance doivent être connues), et permet de démontrer la loi faible des grands nombres.