Couvre la probabilité appliquée, les processus stochastiques, les chaînes de Markov, l'échantillonnage de rejet et les méthodes d'inférence bayésienne.
Introduit des modèles de Markov cachés, expliquant les problèmes de base et les algorithmes comme Forward-Backward, Viterbi et Baum-Welch, en mettant laccent sur lattente-Maximisation.
Couvre les probabilités de frappe dans les chaînes Markov avec des sous-ensembles disjoints, la fonction h(i), les théorèmes, les preuves, et le temps prévu pour frapper les calculs.
Couvre la probabilité appliquée, les chaînes de Markov et les processus stochastiques, y compris les matrices de transition, les valeurs propres et les classes de communication.
Explore un modèle de Markov de premier ordre à laide dun exemple de source ensoleillée-pluie, démontrant comment les événements passés influencent les résultats futurs.
Explore l'ergonomie et la distribution stationnaire dans les chaînes Markov, en mettant l'accent sur les propriétés de convergence et les distributions uniques.
Couvre les inégalités de concentration et les méthodes d'échantillonnage pour estimer les distributions inconnues, en mettant l'accent sur les taux d'infection de la population.
Explore le couplage des chaînes de Markov et la preuve du théorème ergodique, en mettant l'accent sur la convergence des distributions et les propriétés de la chaîne.
Couvre les modèles stochastiques de communication, se concentrant sur les variables aléatoires, les chaînes Markov, les processus Poisson et les calculs de probabilité.