Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Plongez dans l'importance des fonctionnalités, de l'évolution des modèles, des défis d'étiquetage et de la sélection des modèles dans l'apprentissage automatique.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore l'optimisation décentralisée dans l'apprentissage automatique, en mettant l'accent sur la robustesse, la confidentialité et l'équité dans l'apprentissage collaboratif.
Couvre un cours intensif sur l'apprentissage profond, y compris le Mark I Perceptron, les réseaux neuronaux, les algorithmes d'optimisation et les aspects de formation pratique.
Explore les réseaux profonds et convolutifs, couvrant la généralisation, l'optimisation et les applications pratiques dans l'apprentissage automatique.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Fournit un aperçu des méthodes de gradient de politique dans l'apprentissage par renforcement, en se concentrant sur le tour de log-vraisemblance et la transition de l'apprentissage par lots à l'apprentissage en ligne.
Discute des méthodes d'apprentissage par renforcement profond, en se concentrant sur les mini-batchs et les implications des techniques de formation on-policy et off-policy.