Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Introduit des réseaux neuronaux convolutionnels (RCN) pour les véhicules autonomes, couvrant l'architecture, les applications et les techniques de régularisation.
Explore l'ensachage en tant que méthode de régularisation dans l'apprentissage en profondeur, en formant plusieurs variantes de modèles sur différents sous-ensembles de données pour améliorer la généralisation.
Explore l'application de la physique statistique à la compréhension de l'apprentissage profond en mettant l'accent sur les réseaux neuronaux et les défis de l'apprentissage automatique.
Analyse la descente du gradient sur les réseaux neuraux ReLU à deux couches, en explorant la convergence globale, la régularisation, les biais implicites et l'efficacité statistique.
Introduit un cadre fonctionnel pour les réseaux neuronaux profonds avec des splines adaptatives linéaires à la pièce, mettant l'accent sur la reconstruction de l'image biomédicale et les défis des splines profondes.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
S'insère dans le compromis entre la complexité du modèle et le risque, les limites de généralisation, et les dangers d'un ajustement excessif des classes de fonctions complexes.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.