Couvre les marginaux articulaires et la causalité de Granger dans la théorie des probabilités, en expliquant leurs implications dans la prédiction des résultats.
Explore le concept d'entropie exprimée en bits et sa relation avec les distributions de probabilité, en se concentrant sur le gain et la perte d'informations dans divers scénarios.
Explore l'entropie, le caractère aléatoire et la quantification de l'information dans l'analyse des données biologiques, y compris les neurosciences et la prédiction de la structure des protéines.
Couvre la conversion des signaux analogiques en signaux numériques, de compression des données et de reconstruction des signaux, soulignant l'importance du traitement des signaux dans les systèmes de communication.
Explore les promenades aléatoires, le modèle Moran, la chimiotaxie bactérienne, l'entropie, la théorie de l'information et les sites en coévolution dans les protéines.
Explore le rôle de l'informatique dans la société et les bases de l'informatique, des algorithmes, des systèmes de communication et de la sécurité informatique.
Explore la théorie de l'information traditionnelle, la compression des données, la transmission des données et les lemmas de représentation fonctionnelle dans les systèmes en réseau.
Explore la corrélation maximale dans la théorie de l'information, les propriétés mutuelles de l'information, les mesures de Renyi et les fondements mathématiques de la théorie de l'information.