Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.
Explore les vecteurs gaussiens, les fonctions génératrices de moment, l'indépendance, les fonctions de densité, les transformations affines et les formes quadratiques.
Discute de la géométrie des moindres carrés, en explorant les perspectives des lignes et des colonnes, les hyperplans, les projections, les résidus et les vecteurs uniques.
Couvre les diagnostics de régression pour les modèles linéaires, en soulignant limportance de vérifier les hypothèses et didentifier les valeurs aberrantes et les observations influentes.
Explore la sélection de modèles imbriqués dans des modèles linéaires, en comparant les modèles à travers des sommes de carrés et ANOVA, avec des exemples pratiques.
Explore des méthodes robustes et résistantes dans des modèles linéaires, en soulignant l'importance de gérer les observations extrêmes et les implications de la robustesse dans les modèles de régression.
Explore la probabilité pénalisée et les splines cubiques naturelles, présentant la solution explicite unique et l'optimalité de l'interpolation spline.