Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Introduit une régression linéaire et logistique, couvrant les modèles paramétriques, la prédiction multi-sorties, la non-linéarité, la descente de gradient et les applications de classification.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Explore les modèles linéaires pour la classification, la régression logistique, les limites de décision, la SVM, la classification multi-classes et les applications pratiques.
Introduit des perceptrons multicouches (MLP) et couvre la régression logistique, la reformulation, la descente de gradient, AdaBoost et les applications pratiques.
Couvre l'importance de la maintenance préventive pour la détection de la détresse de la chaussée et introduit des concepts d'apprentissage automatique pour les ingénieurs.
Explore la régression logistique pour la classification binaire, couvrant la modélisation des probabilités, les méthodes d'optimisation et les techniques de régularisation.
Explore les réseaux profonds et convolutifs, couvrant la généralisation, l'optimisation et les applications pratiques dans l'apprentissage automatique.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.