Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.
Explore l'information mutuelle dans les données biologiques, en mettant l'accent sur son rôle dans la quantification de la dépendance statistique et l'analyse des séquences protéiques.
Il s'agit d'analyser la coévolution des résidus dans les familles de protéines afin de saisir les contacts indigènes et de prédire la proximité spatiale et les interactions protéiques.
Explore l'information mutuelle, quantifiant les relations entre les variables aléatoires et mesurant le gain d'information et la dépendance statistique.
Explore la combinaison de la force et de la vision pour des tâches de manipulation efficaces en utilisant une représentation dimensionnelle inférieure.
Explore les techniques d'encodage et de décodage dans les systèmes de communication, en se concentrant sur les limites fondamentales et les calculs d'informations mutuelles.
Explore la malédiction de la dimensionnalité, les méthodes de sélection variables, le coefficient de détermination et les limites des techniques de filtrage.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore le problème du secret partiel dans la cryptographie théorique de l'information, couvrant des sujets tels que la communication secrète, la sécurité informatique et les fuites d'informations.
Se penche sur la prédiction de la structure des protéines grâce à l'analyse des contacts avec les acides aminés et à des méthodes informatiques avancées.