Partenaires

CNRS
Logo tutelle
Logo tutelle
Logo tutelle


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil du site > Séminaires > Probabilités Statistiques et réseaux de neurones > Apprentissage par réseaux de neurones : le problème des données en grande dimension

Vendredi 25 janvier 2002 à 9h30

Apprentissage par réseaux de neurones : le problème des données en grande dimension

Michel Verleysen (Louvain-la-Neuve)

Résumé : Les réseaux de neurones artificiels sont des méthodes non-linéaires et adaptatives utilisées en analyse de données, traitement de signal et identification. Comme avec n’importe quelle méthode d’analyse de données,il devient difficile de maintenir les performances des méthodes lorsque le nombre de variables d’entrée des modèles croît. Les problèmes liés aux espaces de données de grande dimension apparaissent alors, comme le phénomène d’espace vide, la non-adéquation des notions usuelles de distance (Euclidienne), etc. Cet exposé aborde brièvement le développement d’algorithmes d’apprentissage adaptés aux espaces de données de grande dimension, en particulier les méthodes locales, telles que la quantification vectorielle, les modèles d’approximation à fonctions radiales, et la classification Bayésienne basée sur l’approximation des densités de probabilités. Réduire la dimension de l’espace par un pré-traitement des données permet également de limiter les difficultés. Basée sur le concept de dimension intrinsèque (ou fractale), une méthode de projection non-linéaire est présentée, généralisant les méthodes linéaires telles que l’analyse en composantes principales. Les méthodes d’apprentissage et de réduction de dimension développées sont illustrées dans le cadre de la prévision de séries temporelles, en particulier dans le domaine financier

Dans la même rubrique :