Télécom ParisTech

Alexandre Gramfort, chercheur à Télécom ParisTech CNRS LTCI

Lauréat d’une ERC Starting Grant 2015 pour son projet de décryptage du fonctionnement du cerveau

Alexandre Gramfort

Les neurosciences produisent de plus en plus de données ouvertes, souvent plusieurs téraoctets par étude. Tout l’enjeu pour exploiter pleinement ce potentiel est de concevoir des outils algorithmiques capables de décrypter et d’analyser ces grandes quantités de données de façon efficace. C’est l’objectif d’Alexandre Gramfort  qui, avec son ERC Starting Grant  Signal processing and Learning Applied to Brain data (SLAB), souhaite apporter une meilleure interprétation des signaux électrophysiologiques des cerveaux sains ou malades, pour mieux en comprendre le fonctionnement.

Mesures (MEG et EEG) et la localisation de leur origine dans le cerveau (tache rouge)Mesures (MEG et EEG) et la localisation de leur origine dans le cerveau (tache rouge)

05 janvier 2016 - Jeune chercheur, maître de conférences à Télécom ParisTech, dans le Laboratoire Traitement et Communication de l'Information (LTCI) commun avec le CNRS, Alexandre Gramfort vient de recevoir la distinction européenne « ERC Starting Grant 2015 » qui marque le caractère innovant et ambitieux de son projet, ainsi que sa faisabilité en rapport avec les critères d'excellence de l'ERC.

Dotée d’une subvention d’environ 1,5 M€, chaque « Starting Grant » attribuée par le Conseil européen de la recherche (European Research Council, ERC) récompense un talentueux jeune chercheur et l’incite à constituer une équipe pour conduire des recherches d’excellence en Europe.

Pour mener à bien ce projet, Alexandre Gramfort prévoit de recruter sept scientifiques (6 doctorants ou post-docs et 1 ingénieur) afin de compléter les ressources spécifiques déjà en place à Télécom ParisTech (groupe AAO du département Traitement du Signal et des Images au sein du LTCI).

L’objectif d’Alexandre Gramfort est d’interpréter plus finement les signaux électro-physiologiques de cerveaux sains ou malades, pour mieux en appréhender le fonctionnement

Comprendre comment fonctionne le cerveau est un des challenges du 21e siècle. Les neurosciences produisent de plus en plus de données ouvertes, souvent plusieurs téraoctets (1 000 000 000 000 d'octets) par étude.

Les masses de données ainsi produites laissent espérer une meilleure compréhension de cet organe majeur. Encore faut-il savoir donner du sens à ces flux de données. Pour exploiter ce potentiel, l’enjeu est en effet de concevoir des outils algorithmiques capables de décrypter et d’analyser de très grandes quantités de données, de façon efficace.

La proposition d’Alexandre Gramfort est de se baser sur trois types de signaux enregistrés en imagerie fonctionnelle cérébrale : l’électroencéphalogramme (EEG), le magnéto-encéphalogramme (MEG), et l’EEG intra-crânien (iEEG), mesure invasive parfois nécessaire chez des malades devant être opérés. Issus de l’activité électromagnétique des neurones, ces signaux sont mesurés soit globalement depuis la surface du crâne (EGG et MEG), soit localement à l’intérieur du cerveau (iEGG).

Concrètement, l’équipe d’Alexandre Gramfort travaillera à une interprétation affinée des signaux électro-physiologiques cérébraux, provenant de sujets sains et de patients. Une avancée pour les sciences cognitives comme pour les applications cliniques.

Pour son projet, Alexandre Gramfort aura accès à des mesures rares, certaines intégrant les trois enregistrements en simultané, qu’il pourra alors mettre en correspondance. Ceci notamment grâce à des collaborations avec le centre d’imagerie Neurospin du CEA et l’hôpital de la Timone à Marseille qui ont permis de collecter des données « anonymisées », respectivement sur des personnes saines ou malades.

Décoder les signatures temporelles d’événements cérébraux requiert un apprentissage réalisé à partir d’informations massives et exécuté à une rapidité compatible avec l’utilisation en milieu médical. Des problématiques complexes se posent donc en traitement du signal et en apprentissage statistique (Machine Learning). De plus, des outils algorithmiques spécifiques sont indispensables pour combiner les différentes mesures afin de recomposer de manière spatiale et temporelle une image en haute résolution du cerveau à l’échelle de la milliseconde.