Couvre la fonction neuronale, les modèles hiérarchiques, les comportements des taxis odorants et les paramètres de circuit disparates dans 18 diapositives.
Explore la conversion analogique-numérique, l'optimisation du signal neuronal, les architectures multicanaux et les techniques de compression sur puce en neuroingénierie.
Explore la modélisation des réseaux neuronaux, l'analyse de sensibilité et la réplication des conditions expérimentales pour comprendre l'activité cérébrale.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
S'engage dans l'apprentissage continu des modèles de représentation après déploiement, soulignant les limites des réseaux neuronaux artificiels actuels.
Couvre les bases NeuroM, y compris la vérification de la qualité des neurones, l'extraction de la morphométrie et la visualisation des neurones dans différents formats.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Par Meenakshi Khosla explore la modélisation basée sur les données dans les neurosciences naturalistes à grande échelle, en mettant l'accent sur la représentation de l'activité cérébrale et les modèles de calcul.