Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.
Explore la sélection de modèles imbriqués dans des modèles linéaires, en comparant les modèles à travers des sommes de carrés et ANOVA, avec des exemples pratiques.
Discute de la géométrie des moindres carrés, en explorant les perspectives des lignes et des colonnes, les hyperplans, les projections, les résidus et les vecteurs uniques.
Couvre les diagnostics de régression pour les modèles linéaires, en soulignant limportance de vérifier les hypothèses et didentifier les valeurs aberrantes et les observations influentes.
Explore les modèles linéaires, les surajustements et l'importance de l'expansion des fonctionnalités et ajoute plus de données pour réduire les surajustements.
Explore la diagonalisation des matrices symétriques à l'aide de vecteurs propres et de valeurs propres, en mettant l'accent sur l'orthogonalité et les valeurs propres réelles.