Partenaires

CNRS
Logo tutelle
Logo tutelle
Logo tutelle


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil du site > Séminaires > Probabilités Statistiques et réseaux de neurones > Identification de l’architecture de perceptrons multicouches

Vendredi 2 juin 2006 à 11 heures

Identification de l’architecture de perceptrons multicouches

Joseph Rynkiewicz (Université Paris 1, Samos-Matisse)

Abstract : On considère des modèles de régression impliquant des perceptrons multicouches (MLP) avec une couche cachée et un bruit gaussien. On suppose ici qu’il existe un vrai modèle MLP qui a généré les observations. L’estimation des paramètres du MLP peut être faite en maximisant la vraisemblance du modèle. Dans ce cadre, il est difficile de déterminer le vrai nombre d’unités cachées parce que la matrice d’information de Fisher n’est pas inversible si ce nombre est surestimé. Ainsi, si les paramètres du MLP ne sont pas bornés à priori, Fukumizu (Annals of stat. 2003) a montré que la statistique du rapport de vraisemblance tendait vers l’infini. Cependant, il est courant de supposer que les paramètres du modèle sont bornés. Dans ce cadre en utilisant des techniques introduites notamment par E. Gassiat, nous montrons que la statistique du rapport de vraisemblance est tendue. Ainsi, un critère d’information convenablement choisi, comme le BIC, est consistant, c’est-à-dire qu’il conduit asymptotiquement à choisir le modèle avec la bonne architecture.

Dans la même rubrique :