Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Couvre les bases de Pytorch avec les ensembles de données MNIST et Digits, en mettant l'accent sur la formation des réseaux neuronaux pour la reconnaissance manuscrite des chiffres.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Explore la logique de la fonction neuronale, le modèle Perceptron, les applications d'apprentissage profond et les niveaux d'abstraction dans les modèles neuronaux.
Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.