Explore les noyaux pour simplifier la représentation des données et la rendre linéairement séparable dans les espaces de fonctionnalités, y compris les fonctions populaires et les exercices pratiques.
Couvre les bases de l'apprentissage automatique, les défis en matière de déploiement, les attaques contradictoires et les préoccupations en matière de protection de la vie privée.
Explore les arbres de décision dans l'apprentissage automatique, leur flexibilité, les critères d'impureté et introduit des méthodes de renforcement comme Adaboost.
Couvre les principes et les méthodes de regroupement dans l'apprentissage automatique, y compris les mesures de similarité, la projection de l'APC, les moyennes K et l'impact de l'initialisation.
Couvre l'inférence statistique, l'apprentissage automatique, les SVM pour la classification des pourriels, le prétraitement des courriels et l'extraction des fonctionnalités.
Explore comment les architectures modernes ont vaincu la malédiction de la dimensionnalité et l'importance de la stabilité dans les modèles d'apprentissage en profondeur.
Plonge dans la dimensionnalité de l'apprentissage profond, la représentation des données et la performance dans la classification des données à grande dimension, explorant la malédiction de la dimensionnalité et le noyau tangent neuronal.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.