Sujets de Projets 3A

Slides de presentation des projets (12 09 2016)

Slides de presentation des projets

Sujet 1 : Deep Learning et NeuroSciences

Encadrant : T. Artières (ECM / LIF) - S. Takerkart (LIF / INT)

Un thème de recherche scientifique d’importance majeure est la compréhension du « cerveau vocal », c’est-à-dire de comment le cerveau analyse les multiples sources d’informations contenues dans un signal de voix humaine et en extrait des représentations nous permettant de comprendre un message de parole, de reconnaitre une personne au son de sa voix, ou d’analyser son état émotionnel. Les travaux récents en imagerie cérébrale suggèrent une architecture fonctionnelle complexe impliquant un grand nombre de régions cérébrales organisées en un réseau parallèle et distribué, analogue à l’architecture fonctionnelle impliquée dans le traitement des stimuli visuels. Mais les détails de cette architecture fonctionnelle, et surtout la nature et le format des représentations intermédiaires, restent obscurs.

Certains travaux récents en apprentissage automatique, regroupés sous la dénomination d’apprentissage profond, sont particulièrement intéressants dans ce contexte. L’apprentissage profond est une thématique récente de l’apprentissage automatique qui s’est appuyée initialement sur les réseaux de neurones artificiels popularisés dans les années 1980. On a assisté depuis quelques années à un regain d’intérêt pour ces modèles statistiques avec l’apparition de diverses stratégies pour apprendre efficacement des réseaux dits profonds ou deep neural networks qui sont des modèles traitant l’information dans un certain nombre de couches de traitement successives (jusqu’à une dizaine). Le deep learning a permis des avancées majeures dans divers champs applicatifs tels que la reconnaissance de parole, l’interprétation d’images et la reconnaissance d’objets dans les images, le traitement de données textuelles… Un des intérêts des modèles profonds vient de leur capacité à extraire dans leurs couches cachées successives des représentations de plus en plus haut niveau sur l’entrée du système.

Le projet a pour but l’étude de l’activité cérébrale en réponse à un stimulus audio et vise à étudier des correspondances entre les signaux audio d'une part et les images IRM de personnes écoutant ces mêmes signaux audio d'autre part. Il s'agira de rapprocher ces deux types d'information par l'apprentissage de réseaux de neurones profonds sur les signaux audio et par la mise en correspondance des représentations apprises par ces réseaux et les images IRM. Le but est double, d'une part apprendre à caractériser les différentes aires du cerveau vocal et les fonctions qu'elles implémentent, d'autre part aider à dimensionner optimalement des réseaux de neurones profonds pour l'analyse de signaux audio.

Ce travail sera réalisé en partenariat avec l'Institut de Neurosciences de La Timone (INT) et en contact avec l'équipe QARMA d'apprentissage Automatique du LIF..

Les expérimentations seront réalisées avec le logiciel Caffe (qui permet d'utiliser le calcul en gpu) et avec python et sa toolbox scikit-learn.

Sujet 1 : Apprentissage multi-vues

Encadrant : Cécile Capponi (LIF) & Qarma team - T. Artières (ECM / LIF)

Projet Multi-vues