Discute de l'entropie, de la compression des données et des techniques de codage Huffman, en mettant l'accent sur leurs applications pour optimiser les longueurs de mots de code et comprendre l'entropie conditionnelle.
Explore les fondamentaux du traitement des signaux, y compris les signaux de temps discrets, la factorisation spectrale et les processus stochastiques.
Explore l'information mutuelle, quantifiant les relations entre les variables aléatoires et mesurant le gain d'information et la dépendance statistique.
Discute de l'estimation et de la propagation de l'incertitude dans les variables aléatoires et de l'importance de gérer l'incertitude dans l'analyse statistique.
Explore les copules dans les statistiques multivariées, couvrant les propriétés, les erreurs et les applications dans la modélisation des structures de dépendance.