Philippe Albouy

dates de séjour
discipline
Fonction actuelle
Institution actuelle
pays d'origine
projet de recherche
Dynamique multimodale et multi-échelle de la perception et de la mémoire de la parole et de la musique
Le langage et la musique représentent les utilisations du son les plus importantes et les plus complexes sur le plan cognitif par le système nerveux humain, servant d’éléments essentiels à la communication (Zatorre, Belin et al. 2002). De nombreuses études ont cherché à déterminer si l’encodage et la mémorisation de la musique et du langage reposent sur des mécanismes distincts ou se chevauchant (Norman-Haignere, Kanwisher et al. 2015, Flinker, Doyle et al. 2019, Albouy, Benjamin et al. 2020, Giroud, Trebuchon et al. 2020). L’un des mécanismes proposés pour leur traitement séparé est la latéralisation hémisphérique, où le langage est principalement traité par l’hémisphère gauche et la musique par l’hémisphère droit (Zatorre et Belin 2001). Cependant, les mécanismes précis de cette spécialisation restent flous pour plusieurs raisons :
Indices acoustiques vs. Catégories
Premièrement, on ne sait pas si le cerveau traite la parole et la musique en fonction d’indices acoustiques généraux ou de catégories spécifiques à un domaine. Nos données antérieures (Albouy, Benjamin et al. 2020) suggèrent que les cortex auditifs gauche et droit sont sensibles à différentes plages de modulations spectrotemporelles, privilégiant une explication acoustique, tandis que d’autres privilégient des catégories cognitives (Norman-Haignere, Kanwisher et al. 2015). Ce débat n’est pas encore résolu, en partie parce que peu d’expériences utilisent les mêmes stimuli et données pour tester les prédictions de chaque modèle.
Stimuli artificiels ou réalistes
La deuxième limite réside dans le recours aux stimuli artificiels dans les études précédentes, qui peuvent ne pas représenter fidèlement la manière dont le cerveau traite les sons complexes en situation réelle, où la parole et la musique interagissent souvent. Cela limite la généralisation des résultats et peut simplifier excessivement nos modèles.
Apprentissage et mémoire : données unitaires ou données LFP
La troisième limite concerne les types de signaux électrophysiologiques utilisés pour étudier la perception, l’apprentissage et la mémoire de la parole et de la musique dans le cerveau humain. Jusqu’à présent, la recherche électrophysiologique s’est principalement concentrée sur l’enregistrement des potentiels de champ locaux (LFP) à partir de réseaux corticaux distribués (EEG/MEG) et de régions cérébrales plus profondes (SEEG). Cependant, cette mesure est relativement insensible à l’activité de décharge neuronale (activité unitaire) (Agopyan-Miu, Merricks et al. 2023). Alors que plusieurs études ont suggéré que la décharge neuronale est positivement corrélée à l’amplitude des oscillations à haute fréquence (gamma > 40 Hz) (Buzsaki, Anastassiou et al. 2012), des études récentes ont suggéré que le LFP et la décharge neuronale (unité unique) pourraient plutôt contenir des informations complémentaires (Agopyan-Miu, Merricks et al. 2023). Dans le contexte de l’apprentissage auditif et de la mémoire, notre compréhension de la relation entre l’activité unitaire et le LFP est donc limitée, ce qui limite notre capacité à comprendre pleinement comment les séquences auditives (telles que la parole et la musique) sont apprises et stockées dans le cerveau humain.
Objectifs du projet actuel
Grâce à deux axes de recherche complémentaires, j’aborderai ces limitations grâce à une approche expérimentale unifiée pour étudier la perception et la mémoire de la parole et de la musique. Dans l’axe I, j’étudierai la perception de la parole et de la musique en utilisant des stimuli naturalistes et en extrairai leurs modulations acoustiques spectrotemporelles et leurs caractéristiques catégorielles linguistiques et musicales au fil du temps. Afin d’obtenir une image complète des mécanismes cérébraux sous-jacents à ces caractéristiques, je mènerai un projet multi-institutionnel et multimodal visant à acquérir des enregistrements électrophysiologiques des processus oscillatoires rapides, à la fois intracrâniens chez les patients épileptiques et par OPM-MEG pour une cartographie corticale complète chez les individus sains. J’analyserai les signaux électrophysiologiques enregistrés par stéréo-électroencéphalographie (SEEG) au CHU de Québec-Université Laval/CERVO (mon établissement d’origine) et les données OPM-MEG chez des adultes sains, qui seront enregistrées à l’Institut de Neurosciences des Systèmes (UMR 1106, amU/Inserm) en collaboration avec les Drs Benjamin Morillon et Christian Bénar, fournissant ainsi un ensemble de données unique et complémentaire.
Dans l’axe II, j’étudierai les mécanismes multi-échelles soutenant l’apprentissage et la mémorisation de séquences auditives dans l’hippocampe humain à l’aide de la SEEG hybride macro/micro (données qui seront enregistrées au CHU de Québec-Université Laval/CERVO lors de mon séjour à Marseille). Plus particulièrement, je souhaite étudier le rôle de l’hippocampe dans l’apprentissage associatif et la mémoire de travail (MT) auditive, une fonction cognitive soutenant le stockage, le traitement et la manipulation à court terme d’informations récentes (ou récupérées de la mémoire à long terme (D’Esposito 2007, Cowan 2008, Baddeley 2010)), ayant un impact sur les tâches quotidiennes, l’autonomie et la qualité de vie. En examinant l’interaction entre les LFP et l’activité de cellules conceptuelles spécifiques (qui se déclenchent lorsqu’une association est apprise), je cherche à comprendre comment les souvenirs auditifs sont conservés au niveau neuronal.
Cette recherche propose une approche globale intégrant des données neuronales multimodales et multi-échelles pour explorer la perception et la mémorisation de la parole et de la musique, faisant progresser notre compréhension globale de la cognition auditive.
biographie
Je suis professeur agrégé à l’École de psychologie de l’Université Laval, boursier junior 2 du FRQ-S (équivalent d’une chaire de recherche) et chercheur au Centre de Recherche CERVO. J’ai obtenu un doctorat en neurosciences en 2014 à l’Université Lyon 1 (France), puis j’ai rejoint le Montreal Neurological Institute de l’Université McGill. Mes recherches visent à améliorer la compréhension des mécanismes cognitifs et neuronaux qui sous-tendent la perception, l’apprentissage et l’utilisation des sons complexes tels que la parole et la musique. Nous avons caractérisé les réseaux neuronaux et la dynamique oscillatoire qui sous-tendent les différentes étapes de traitement de la mémoire de travail auditive humaine (parole, musique). Nous développons également des procédures innovantes de stimulation cérébrale consistant à moduler les oscillations cérébrales en temps réel, pendant l’exécution d’une tâche, afin d’améliorer la mémoire de travail humaine. Nous avons récemment développé la plateforme EEGNet qui vise à donner accès à des données d’électroencéphalographie standardisées et à des outils d’analyse à la communauté internationale. Enfin, depuis 2021, en collaboration avec le CHU de Québec-Université Laval, j’ai développé une plateforme d’électroencéphalographie intracorticale (SEEG) où je dirige des projets de recherche en SEEG à titre de principal investigator. J’ai également initié des collaborations nationales et internationales (France, Espagne, Allemagne, Chine) qui, je l’espère, feront de Québec un pôle émergent de recherche en SEEG humaine.