Explore les défis d'une vision robuste, y compris les changements de distribution, les exemples d'échecs et les stratégies visant à améliorer la robustesse des modèles grâce à une préformation diversifiée des données.
Examine la généralisation des classificateurs ImageNet, les applications critiques pour la sécurité, le surajustement et la fiabilité des modèles d'apprentissage automatique.
Explore les défis d'apprentissage avec les déplacements de distribution et la géométrie de perturbation, en mettant l'accent sur des classificateurs robustes et la modélisation de variation naturelle.
Explore l'évaluation de la précision et de la robustesse de la machine et de l'homme sur ImageNet, en soulignant les progrès, les défis et la nécessité d'améliorer.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Déplacez-vous dans des modèles générateurs basés sur les scores, explorant les distributions naturelles d'apprentissage et l'impact de l'architecture de réseau neuronal sur la robustesse.
Explore les défis et les points de vue de l'apprentissage profond, en mettant l'accent sur le paysage des pertes, la généralisation et l'apprentissage caractéristique.
Introduit les bases de la science des données, couvrant les arbres de décision, les progrès de l'apprentissage automatique et l'apprentissage par renforcement profond.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.