Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.
Il s'agit d'analyser la coévolution des résidus dans les familles de protéines afin de saisir les contacts indigènes et de prédire la proximité spatiale et les interactions protéiques.
Explore la combinaison de la force et de la vision pour des tâches de manipulation efficaces en utilisant une représentation dimensionnelle inférieure.
Explore les techniques d'encodage et de décodage dans les systèmes de communication, en se concentrant sur les limites fondamentales et les calculs d'informations mutuelles.
Explore l'information mutuelle dans les données biologiques, en mettant l'accent sur son rôle dans la quantification de la dépendance statistique et l'analyse des séquences protéiques.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore la malédiction de la dimensionnalité, les méthodes de sélection variables, le coefficient de détermination et les limites des techniques de filtrage.
Explore le problème du secret partiel dans la cryptographie théorique de l'information, couvrant des sujets tels que la communication secrète, la sécurité informatique et les fuites d'informations.
Explore les informations mutuelles pour quantifier la dépendance statistique entre les variables et déduire des distributions de probabilité à partir de données.