Explore les modèles linéaires pour la classification, y compris la classification binaire, la régression logistique, les limites de décision et les machines vectorielles de support.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Couvre les bases de l'apprentissage automatique pour les physiciens et les chimistes, en mettant l'accent sur la classification des images et l'étiquetage des ensembles de données.
Explique la machine vectorielle de soutien et la régression logistique pour les tâches de classification, en mettant l'accent sur la maximisation de la marge et la minimisation des risques.
Explore les modèles linéaires pour la classification, la régression logistique, les limites de décision, la SVM, la classification multi-classes et les applications pratiques.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre le clustering, la classification et le support des principes, des applications et de l'optimisation des machines vectorielles, y compris la classification non linéaire et les effets du noyau gaussien.
Couvre l'inférence statistique, l'apprentissage automatique, les SVM pour la classification des pourriels, le prétraitement des courriels et l'extraction des fonctionnalités.