Les modèles de Markov partiellement observes (MMPO) admettent de multiples applications dans des domaines les plus divers. Les modèles de Markov cachés (MMC), qui sont des MMPO de base, apparaissent comme les modèles parmi les plus simples permettant une recherche des réalisations des processus cachés à partir des processus observés dans les cas de grandes masses de données. Les calculs séquentiels – donc explicites et rapides - sont permis par la nature markovienne du couple (processus caché, processus observé).
Dans la première partie du cours on s’intéressera aux processus cachés discrets. On passera en revue les modèles classiques que sont les chaînes, les arbres, et les champs de Markov cachés. On précisera les traitements bayésiens correspondants, ainsi que l’estimation des paramètres permettant des traitements non supervisés. Par la suite, on exposera diverses extensions des Markov cachés classiques - semi-Markov cachés, Markov couples, Markov triplets, Markov évidentiels - dont certains récents. On proposera des illustrations en segmentation statistique d’images, qui est un problème important en traitement d’images.
Dans la première partie on s’intéressera aux processus cachés continus. L’exposé des systèmes gaussiens classiques, rendant possible les filtrages optimaux de type Kalman, sera suivi par les descriptions des modélisations plus complexes de type Markov couple et Markov triplet. En particulier, on étudiera les systèmes à sauts permettant de faire un lien avec la première partie du cours. L’intérêt des notions traitées sera illustré par des applications en poursuite.
Une troisième partie, brève, contiendra des notions des machines de Boltzmann et des réseaux de connaissances profonds, qui peuvent être vues comme des modèles de Markov partiellement observés particuliers.
Prérequis : Un bon niveau (M1) en probabilités. Connaissances en chaînes de Markov utile mais non indispensable.
Note finale : Examen écrit
- Teaching coordinator: Pieczynski Wojciech