Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.
Il explore la construction de régions de confiance, les tests d'hypothèse inversés et la méthode pivot, en soulignant l'importance des méthodes de probabilité dans l'inférence statistique.
Couvre l'estimation maximale de la probabilité, en mettant l'accent sur l'estimation-distribution ML, l'estimation de la réduction et les fonctions de perte.
Couvre les tests de ratio de vraisemblance, leur optimalité et les extensions dans les tests d'hypothèses, y compris le théorème de Wilks et la relation avec les intervalles de confiance.
Explorer les tests d'hypothèses à l'aide du théorème de Wilks, les statistiques du rapport de probabilité, les valeurs p, l'estimation des intervalles et les régions de confiance.
Explore la cohérence et les propriétés asymptotiques de l’estimateur de vraisemblance maximale, y compris les défis à relever pour prouver sa cohérence et construire des estimateurs de type MLE.
S'insère dans la dualité entre les intervalles de confiance et les tests d'hypothèses, soulignant l'importance de la précision et de l'exactitude dans l'estimation.
Couvre l'estimation des points, les intervalles de confiance et les tests d'hypothèses pour les fonctions lisses à l'aide de modèles mixtes et de lissage des splines.
Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.