Explore les techniques d'encodage et de décodage dans les systèmes de communication, en se concentrant sur les limites fondamentales et les calculs d'informations mutuelles.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore la malédiction de la dimensionnalité, les méthodes de sélection variables, le coefficient de détermination et les limites des techniques de filtrage.
Couvre les mesures d'information telles que l'entropie, l'entropie articulaire et l'information mutuelle dans la théorie de l'information et le traitement des données.
Explore le problème du secret partiel dans la cryptographie théorique de l'information, couvrant des sujets tels que la communication secrète, la sécurité informatique et les fuites d'informations.
Se penche sur la prédiction de la structure des protéines grâce à l'analyse des contacts avec les acides aminés et à des méthodes informatiques avancées.
Explore les informations mutuelles pour quantifier la dépendance statistique entre les variables et déduire des distributions de probabilité à partir de données.
Explore la sélection de variables à travers des méthodes de filtrage et de corrélation dans l'apprentissage automatique, en mettant l'accent sur la quantification de la pertinence et la mesure des relations avec l'étiquette.
Couvre l'analyse statistique des extrêmes multivariés, y compris les théorèmes des limites extrêmes et les modèles pour les extrêmes des séries chronologiques.