Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre les méthodes d'interpolation déterministe globale et locale dans les systèmes d'information géographique, en discutant des connaissances spécialisées, de la sélection des méthodes et de l'estimation de l'incertitude.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Couvre la régression linéaire, la régression pondérée, la régression pondérée localement, la régression vectorielle de soutien, la manipulation du bruit et la cartographie oculaire à l'aide de SVR.
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Couvre l'apprentissage supervisé, la classification, la régression, les limites de décision, le surajustement, Perceptron, SVM et la régression logistique.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.