S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Explore la capacité des réseaux de neurones à apprendre des fonctionnalités et à faire des prédictions linéaires, en soulignant l'importance de la quantité de données pour une performance efficace.
Couvre les fondamentaux des réseaux de neurones profonds et des splines, explorant leurs propriétés, leurs implications et leurs applications dans l'apprentissage automatique moderne.
Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Explore l'optimalité des splines pour l'imagerie et les réseaux neuraux profonds, démontrant la sparosité et l'optimalité globale avec les activations des splines.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Explore les réseaux neuronaux à deux couches et la rétropropagation pour l'apprentissage des espaces de fonctionnalités et l'approximation des fonctions continues.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre un cours intensif sur l'apprentissage profond, y compris le Mark I Perceptron, les réseaux neuronaux, les algorithmes d'optimisation et les aspects de formation pratique.
Explore les critères de monotonie, la règle de L'Hopital et la continuité de Lipschitz dans les fonctions différentiables et les réseaux neuronaux profonds.