Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.
Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.
Explore la méthode des moments, le compromis biais-variance, la cohérence, le principe de plug-in et le principe de vraisemblance dans lestimation de point.
Explore la cohérence et les propriétés asymptotiques de l’estimateur de vraisemblance maximale, y compris les défis à relever pour prouver sa cohérence et construire des estimateurs de type MLE.
Explore une régression robuste dans l'analyse des données génomiques, en mettant l'accent sur la pondération des résidus importants pour une meilleure précision des estimations et des mesures d'évaluation de la qualité telles que NUSE et RLE.
Explore les méthodes d'estimation de la distribution, les fonctions de remise en forme et l'importance de choisir le bon estimateur pour obtenir des résultats précis.
Couvre l'estimation maximale de la probabilité, en mettant l'accent sur l'estimation-distribution ML, l'estimation de la réduction et les fonctions de perte.
Explore l'apprentissage des modèles graphiques avec les estimateurs M, la régression des processus Gaussiens, la modélisation Google PageRank, l'estimation de la densité et les modèles linéaires généralisés.