Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore l'inférence bayésienne pour la précision dans le modèle gaussien avec la moyenne connue, en utilisant un précédent Gamma et en discutant des précédents subjectifs vs objectifs.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Introduit les bases de l'apprentissage automatique, y compris la collecte de données, l'évaluation des modèles et la normalisation des fonctionnalités.
Explore des sujets avancés dans l'apprentissage automatique, en se concentrant sur les extensions SVR et l'optimisation hyperparamétrique, y compris Nu-SVR et RVR.
Couvre l'interprétation des estimations du risque de validation croisée et la construction d'un prédicteur final à partir des résultats de validation croisée.
Introduit des techniques pour obtenir des estimations impartiales du risque des prédicteurs appris et leur application pour l'accord hyperparamétrique.
Introduit des techniques de clustering d'apprentissage automatique non supervisées telles que K-means, Gaussian Mixture Models et DBSCAN, expliquant leurs algorithmes et leurs applications.
Examine la conception d'un système d'exécution distribué à usage général, couvrant les défis, les cadres spécialisés, la logique de contrôle décentralisée et les remaniements de haute performance.
Discute des méthodes du noyau dans l'apprentissage automatique, en se concentrant sur la régression du noyau et les machines vectorielles de support, y compris leurs formulations et applications.