Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Couvre les techniques de réduction de dimensionnalité, de regroupement et d'estimation de la densité, y compris l'ACP, les moyennes K, le MGM et le décalage moyen.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Couvre les sujets avancés dans les modèles linéaires généralisés, en mettant l'accent sur les fonctions de liaison, les distributions d'erreurs et l'interprétation des modèles.
Couvre les techniques de réduction de dimensionnalité telles que PCA et LDA, les méthodes de clustering, l'estimation de la densité et la représentation des données.
Couvre l'estimation de la densité du noyau axée sur la sélection de la bande passante, la malédiction de la dimensionnalité, le compromis entre les biais et les modèles paramétriques et non paramétriques.
Discute des méthodes du noyau dans l'apprentissage automatique, en se concentrant sur la régression du noyau et les machines vectorielles de support, y compris leurs formulations et applications.