Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Introduit le classificateur Naive Bayes, qui couvre les hypothèses d'indépendance, les probabilités conditionnelles et les applications dans la classification des documents et le diagnostic médical.
Explore l'optimisation stochastique, les méthodes de gradient adaptatif, les systèmes de recommandation et la factorisation matricielle dans les matrices d'évaluation des éléments utilisateurs.
Explore l'impact du bruit de gradient sur les algorithmes d'optimisation, en se concentrant sur les fonctions de risque lisses et non lisses et la dérivation des moments de bruit de gradient.
Explore les méthodes du noyau pour les surfaces de séparation non linéaires à l'aide de noyaux polynômes et gaussiens dans les algorithmes Perceptron et SVM.
Couvre le concept d'inférence moyenne-carré-erreur et d'estimateurs optimaux pour les problèmes d'inférence en utilisant différents critères de conception.
Explore la théorie de la généralisation dans l'apprentissage automatique, en abordant les défis dans les espaces de dimension supérieure et le compromis entre les biais et les variables.
Explore l'inférence bayésienne pour les variables aléatoires gaussiennes, couvrant la distribution articulaire, les pdf marginaux et le classificateur Bayes.
Introduit des réseaux neuronaux, des fonctions d'activation et de rétropropagation pour la formation, en répondant aux défis et aux méthodes puissantes.