Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Couvre les bases de Pytorch avec les ensembles de données MNIST et Digits, en mettant l'accent sur la formation des réseaux neuronaux pour la reconnaissance manuscrite des chiffres.
Explore les erreurs optimales dans les modèles de grande dimension, en comparant les algorithmes et en faisant la lumière sur l'interaction entre l'architecture du modèle et la performance.
Introduit l'algorithme de perceptron et son interprétation géométrique, en mettant l'accent sur la rotation de l'hyperplan due à des motifs mal classés.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.