Couvre l'histoire et l'inspiration derrière les réseaux neuronaux artificiels, la structure des neurones, l'apprentissage par les connexions synaptiques et la description mathématique des neurones artificiels.
Explore l'équilibre entre l'exploration de nouvelles possibilités et l'exploitation d'actions gratifiantes connues dans l'apprentissage par renforcement.
Explore l'algorithme SARSA pour l'apprentissage par renforcement, en mettant l'accent sur la mise à jour des valeurs Q et l'importance de l'exploration dans l'apprentissage par récompenses.
Discute des processus décisionnels de Markov et des techniques de programmation dynamique pour résoudre des politiques optimales dans divers scénarios.
Introduit l'algorithme de perceptron et son interprétation géométrique, en mettant l'accent sur la rotation de l'hyperplan due à des motifs mal classés.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Explore les méthodes de descente de gradient pour l'entraînement des réseaux de neurones artificiels, couvrant l'apprentissage supervisé, les réseaux monocouches et les règles modernes de descente de gradient.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.