Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Analyse la descente du gradient sur les réseaux neuraux ReLU à deux couches, en explorant la convergence globale, la régularisation, les biais implicites et l'efficacité statistique.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Couvre les bases de l'apprentissage automatique, les défis en matière de déploiement, les attaques contradictoires et les préoccupations en matière de protection de la vie privée.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Présente la structure du cours et les concepts fondamentaux de l'apprentissage automatique, y compris l'apprentissage supervisé et la régression linéaire.
Couvre les bases de la régression linéaire, y compris l'ingénierie des caractéristiques, l'apprentissage supervisé ou non supervisé, et minimise la fonction de coût.
Explore les réseaux profonds et convolutifs, couvrant la généralisation, l'optimisation et les applications pratiques dans l'apprentissage automatique.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.