Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Couvre des exemples de modèles de décision pour lapprentissage supervisé, y compris la régression, la classification, les paires de classement et le décodage de séquence pour les modèles OCR.
Couvre les fondamentaux de l'apprentissage automatique avancé, mettant l'accent sur les applications pratiques par des exercices et des projets interactifs.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Couvre la régression linéaire, la régression pondérée, la régression pondérée localement, la régression vectorielle de soutien, la manipulation du bruit et la cartographie oculaire à l'aide de SVR.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, en explorant ses applications dans la prédiction des résultats comme le poids de naissance et l'analyse des relations entre les variables.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.