Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Déplacez-vous dans l'intersection de la physique et des données dans les modèles d'apprentissage automatique, couvrant des sujets tels que les champs d'expansion des grappes atomiques et l'apprentissage non supervisé.
Explore le rôle des graphiques dans l'apprentissage en profondeur, en se concentrant sur leur structure, leurs applications et leurs techniques de traitement des données graphiques.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Présente les principes fondamentaux de la régression dans l'apprentissage automatique, couvrant la logistique des cours, les concepts clés et l'importance des fonctions de perte dans l'évaluation des modèles.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Explore les applications de la chimie quantique, en mettant l'accent sur le rôle de la densité électronique dans la prédiction des propriétés chimiques et en abordant les défis de la conception des catalyseurs, de la conversion de l'énergie solaire et de la synthèse des médicaments.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.