Couvre l'informatique neuromorphe, les défis dans l'informatique ternaire et binaire, les simulations matérielles du cerveau, et les nouveaux matériaux pour les cellules cérébrales artificielles.
S'engage dans l'apprentissage continu des modèles de représentation après déploiement, soulignant les limites des réseaux neuronaux artificiels actuels.
Offre des informations sur la physique statistique de l'apprentissage, explorant la relation entre la structure du réseau neuronal et les systèmes désordonnés.
Couvre les outils de physique statistique pour l'optimisation, l'apprentissage, la coloration graphique, les systèmes de recommandation et les réseaux neuronaux.
Explore le modèle de Hopfield stochastique, les neurones bruyants, les probabilités de tir, la récupération de mémoire et les équations de chevauchement dans les réseaux d'attraction.
Explore le développement historique de l'apprentissage profond, de l'apprentissage par renforcement, des mécanismes d'attention et des systèmes de mémoire en IA inspirés des neurosciences.
Explore les réseaux neuronaux à deux couches et la rétropropagation pour l'apprentissage des espaces de fonctionnalités et l'approximation des fonctions continues.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.
Explore les modèles de calcul du système visuel ventral, en se concentrant sur l'optimisation des réseaux pour les tâches réelles et la comparaison avec les données cérébrales.