Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Explorer les distributions d'échantillonnage, les propriétés des estimateurs et les mesures statistiques pour les applications de la science des données.
Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, y compris la formation des modèles, les fonctions de perte et les mesures d'évaluation.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.