Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Explore le paradigme de l'apprentissage profond, y compris les défis, les réseaux neuronaux, la robustesse, l'équité, l'interprétabilité et l'efficacité énergétique.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Discute des réseaux neuronaux convolutifs, de leur architecture, des techniques de formation et des défis tels que des exemples contradictoires en apprentissage profond.
Introduit des réseaux neuronaux, des fonctions d'activation et de rétropropagation pour la formation, en répondant aux défis et aux méthodes puissantes.
Introduit des réseaux de neurones artificiels et explore diverses techniques de réduction de la dimensionnalité telles que PCA, LDA, Kernel PCA et t-SNE.
Offre des informations sur la physique statistique de l'apprentissage, explorant la relation entre la structure du réseau neuronal et les systèmes désordonnés.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Fournit un aperçu des méthodes de gradient de politique dans l'apprentissage par renforcement, en se concentrant sur le tour de log-vraisemblance et la transition de l'apprentissage par lots à l'apprentissage en ligne.
Explore les méthodes du noyau pour les surfaces de séparation non linéaires à l'aide de noyaux polynômes et gaussiens dans les algorithmes Perceptron et SVM.