Explore les noyaux de régression de processus gaussien, les coûts de calcul et les comparaisons avec la régression de crête et d'autres techniques de régression non linéaire.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Couvre les principes de régression de mélange gaussien, la modélisation des densités articulaires et conditionnelles pour les ensembles de données multimodaux.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Explore la régression logistique pour les variables de réponse binaire, couvrant des sujets tels que l'interprétation du rapport de cotes et l'ajustement du modèle.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, soulignant l'importance de l'expansion des fonctionnalités et des méthodes du noyau.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.