Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Introduit des techniques pour obtenir des estimations impartiales du risque des prédicteurs appris et leur application pour l'accord hyperparamétrique.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore le sous-ajustement, le surajustement, les hyperparamètres, le compromis biais-variance et l'évaluation de modèle dans l'apprentissage automatique.
Explore l'optimisation décentralisée dans l'apprentissage automatique, en mettant l'accent sur la robustesse, la confidentialité et l'équité dans l'apprentissage collaboratif.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Plongez dans l'importance des fonctionnalités, de l'évolution des modèles, des défis d'étiquetage et de la sélection des modèles dans l'apprentissage automatique.
Couvre l'interprétation des estimations du risque de validation croisée et la construction d'un prédicteur final à partir des résultats de validation croisée.
Explore les réseaux neuronaux récurrents pour les données comportementales, couvrant le repérage de connaissances profondes, les réseaux LSTM, GRU, le réglage hyperparamétrique et les tâches de prévision de séries chronologiques.
Couvre l'échantillonnage, la validation croisée, la quantification des performances, la détermination optimale du modèle, la détection des surajustements et la sensibilité de classification.