Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Introduit une analyse de régression, couvrant les modèles linéaires et non linéaires, la régression de Poisson et l'analyse du temps de défaillance à l'aide de divers ensembles de données.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Couvre la régression linéaire, la régression pondérée, la régression pondérée localement, la régression vectorielle de soutien, la manipulation du bruit et la cartographie oculaire à l'aide de SVR.
Couvre la méthode ANOVA, en se concentrant sur la partition de la somme totale des carrés en composantes de traitement et d'erreur, les calculs carrés moyens, les statistiques de Fisher et la distribution F.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.