Une nouvelle étude de l’Université Hébraïque révèle comment le cerveau transforme naturellement les sons, les schémas de parole et les mots en conversations quotidiennes fluides. Ces résultats pourraient améliorer les technologies de reconnaissance vocale et favoriser le développement d’outils plus performants pour les personnes ayant des difficultés de communication.
Publiée dans la revue Nature Human Behaviour, l’étude a utilisé des technologies avancées pour analyser plus de 100 heures d’activité cérébrale enregistrées lors de conversations réelles. Les chercheurs ont ainsi identifié les voies complexes permettant aux individus de parler et de comprendre sans effort.
L’équipe, comprenant Google Research, l’Institut de Neurosciences de l’Université de Princeton et le Centre d’Épilepsie NYU Langone, a utilisé un modèle de reconnaissance vocale nommé Whisper. Ce modèle décompose le langage en trois niveaux : les sons élémentaires, les schémas de parole et la signification des mots. Ces données ont été comparées à l’activité cérébrale grâce à des modèles informatiques avancés pour explorer la base neuronale des conversations humaines.
« Nos découvertes aident à comprendre comment le cerveau traite les conversations dans des situations réelles », explique le chercheur principal, le Dr Goldstein, du Département des Sciences Cognitives et du Cerveau et de l’École de Commerce de l’Université Hébraïque. « En reliant les différentes couches du langage, nous dévoilons les mécanismes derrière quelque chose que nous faisons tous naturellement : parler et nous comprendre. »
Les résultats montrent que ce nouveau cadre computationnel prédit précisément l’activité cérébrale. Même appliqué à des conversations absentes des données initiales, le modèle associe correctement diverses régions du cerveau à des fonctions spécifiques du langage. Par exemple, les régions associées à l’audition et à la parole correspondent aux sons et aux schémas vocaux, tandis que celles impliquées dans la compréhension supérieure correspondent au sens des mots.
Les chercheurs ont également découvert que le cerveau traite le langage de manière séquentielle. Avant de parler, le cerveau passe de la réflexion sur les mots à la formulation des sons. Après avoir écouté, le cerveau effectue le processus inverse pour interpréter les propos entendus. Ce nouveau modèle s’est révélé plus efficace pour capturer ces processus complexes que les méthodes précédentes.
Cette étude constitue un pas important vers la création d’outils avancés visant à mieux comprendre comment le cerveau traite le langage dans des contextes réels, qu’il s’agisse de conversations informelles ou de débats, et vers la transformation de ces connaissances en avancées technologiques.
L’article de recherche intitulé « A unified acoustic-to-speech-to-language embedding space captures the neural basis of natural language processing in everyday conversations » est disponible dans la revue Nature Human Behaviour.
DOI : 10.1038/s41562-025-02105-9
Chercheurs : Ariel Goldstein¹², Haocheng Wang³, Leonard Niekerken³⁴, Mariano Schain², Zaid Zada³, Bobbi Aubrey³, Tom Sheffer², Samuel A. Nastase³, Harshvardhan Gazula³⁵, Aditi Singh³, Aditi Rao³, Gina Choe³, Catherine Kim³, Werner Doyle⁶, Daniel Friedman⁶, Sasha Devore⁶, Patricia Dugan⁶, Avinatan Hassidim², Michael Brenner²⁷, Yossi Matias², Orrin Devinsky⁶, Adeen Flinker⁶, Uri Hasson³
Institutions :
- Département des sciences cognitives et du cerveau et École de commerce, Université Hébraïque, Jérusalem, Israël
- Google Research, Mountain View, CA, États-Unis
- Département de psychologie et Institut de neurosciences de l’Université de Princeton, NJ, États-Unis
- Département de neuroscience cognitive, Faculté de psychologie et de neurosciences, Université de Maastricht, Pays-Bas
- Athinoula A. Martinos Center for Biomedical Imaging, Massachusetts General Hospital et Harvard Medical School, Boston, MA, États-Unis
- New York University School of Medicine, New York, NY, États-Unis
- School of Engineering and Applied Science, Harvard University, Boston, MA, États-Unis