Explore l'inférence statistique, la suffisance et l'exhaustivité, en soulignant l'importance de statistiques suffisantes et le rôle de statistiques complètes dans la réduction des données.
Explore l'exhaustivité, la suffisance minimale et les modèles statistiques spéciaux, en se concentrant sur les familles exponentielles et de transformation.
Explore la méthode des moments, le compromis biais-variance, la cohérence, le principe de plug-in et le principe de vraisemblance dans lestimation de point.
Se penche sur les estimateurs de vraisemblance maximale, leurs propriétés et leur comportement asymptotique, en mettant l'accent sur la cohérence et la normalité asymptotique.
Explore la cohérence et les propriétés asymptotiques de l’estimateur de vraisemblance maximale, y compris les défis à relever pour prouver sa cohérence et construire des estimateurs de type MLE.
Explore le cadre de la théorie de la décision en théorie statistique, considérant les statistiques comme un jeu aléatoire avec des concepts clés tels que la recevabilité, les règles minimax et les règles Bayes.
Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.
Couvre les tests de ratio de vraisemblance, leur optimalité et les extensions dans les tests d'hypothèses, y compris le théorème de Wilks et la relation avec les intervalles de confiance.
Il explore la construction de régions de confiance, les tests d'hypothèse inversés et la méthode pivot, en soulignant l'importance des méthodes de probabilité dans l'inférence statistique.
Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.