Partenaires

CNRS
Logo tutelle
Logo tutelle
Logo tutelle


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil du site > Séminaires > Probabilités Statistiques et réseaux de neurones > Exposants d´erreur optimaux pour l´identification de l´ordre d´une chaîne de Markov cachée (HMM)

Vendredi 14 mars 2003 à 10 h

Exposants d´erreur optimaux pour l´identification de l´ordre d´une chaîne de Markov cachée (HMM)

Stéphane Boucheron (LRI, Orsay)

Résumé : Nous considérons l´estimation de l´ordre, c´est-à-dire du nombre d´états cachés d´une chaîne de Markov cachée à temps discret sur un alphabet d´observation fini. Ce problème a un intérêt pratique car les paramètres d´une HMM ne sont pas identifiables si l´ordre est mal spécifié.

Les estimateurs envisagés sont liés aux estimateurs construits sur le critère d´information bayésien (BIC). Ce sont par exemple des estimateurs par maximum de vraisemblance pénalisé ou des estimateurs construits à partir de codeurs universels, comme proposés par Kieffer (1993) ou Liu et Narayan (1994). Nous vérifions donc la forte consistance de ces estimateurs sans supposer de borne supérieure a priori sur le nombre d´états cachés et en utilisant les plus petites pénalités connues à ce jour. Nous prouvons ensuite deux versions du Lemme de Stein pour l´estimation de l´ordre d´une HMM. Ces deux versions donnent d´une part une borne supérieure non-triviale pour la vitesse exponentielle avec laquelle la probabilité de sous-estimation tend vers 0, et montrent d´autre part que la vitesse avec laquelle la probabilité de surestimer l´ordre tend vers 0 ne peut être exponentielle en fonction du nombre d´observations.

Finalement le résultat principal est constitué par la preuve que les estimateurs de l´ordre par maximum de vraisemblance pénalisé ont une probabilité de sous-estimer l´ordre qui décroît de manière optimale. Cette preuve tourne la difficulté constituée par la nature mystérieuse du maximum de vraisemblance dans les HMM en utilisant des arguments de grandes déviations au niveau des processus de vraisemblance.

Dans la même rubrique :