Explore l'orthogonalité, les normes vectorielles et les sous-espaces dans l'espace euclidien, y compris la détermination des compléments orthogonaux et des propriétés des sous-espaces et des matrices.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Explore le problème de la valeur propre de Sturm-Liouville, en mettant l'accent sur le rôle essentiel des conditions aux limites pour assurer l'auto-intégration et former une base orthogonale.
Explore les dangers des « grands » modèles, des questions de multicollinéarité et de l'analyse de l'ajustement des modèles dans les statistiques pour la science des données.
Explore la méthodologie de conception expérimentale, y compris les plans classiques, la méthode simplex et l'analyse canonique pour les modèles linéaires et quadratiques.
Explique l'estimation par l'erreur moyenne au carré et l'information de Fisher dans le contexte des filtres adaptatifs et des distributions exponentiées.