Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Couvre les arbres de décision pour la régression et la classification, expliquant la construction des arbres, la sélection des caractéristiques et les critères d'induction.
Couvre les sujets avancés dans les modèles linéaires généralisés, en mettant l'accent sur les fonctions de liaison, les distributions d'erreurs et l'interprétation des modèles.
Couvre l'expansion des fonctionnalités polynômes, les fonctions du noyau, la régression et le SVM, soulignant l'importance de choisir les fonctions pour l'expansion des fonctionnalités.
Explore la régression linéaire probabiliste et la régression de processus gaussien, en mettant l'accent sur la sélection du noyau et l'ajustement hyperparamétrique pour des prédictions précises.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Explore les arbres de décision et de régression, les mesures d'impuretés, les algorithmes d'apprentissage et les implémentations, y compris les arbres d'inférence conditionnelle et la taille des arbres.
Explore la régression non paramétrique pour les réseaux, couvrant l'analyse des données d'objets, les graphiques de réseaux, les distances extrinsèques et les projections pratiques.
Couvre les probabilités, les variables aléatoires, les attentes, les GLM, les tests d'hypothèse et les statistiques bayésiennes avec des exemples pratiques.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.