Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Analyse la descente du gradient sur les réseaux neuraux ReLU à deux couches, en explorant la convergence globale, la régularisation, les biais implicites et l'efficacité statistique.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.
Introduit un cadre fonctionnel pour les réseaux neuronaux profonds avec des splines adaptatives linéaires à la pièce, mettant l'accent sur la reconstruction de l'image biomédicale et les défis des splines profondes.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Explore comment les architectures modernes ont vaincu la malédiction de la dimensionnalité et l'importance de la stabilité dans les modèles d'apprentissage en profondeur.