À l’âge de 30 ans, Ann a subi un AVC du tronc cérébral qui l’a laissée gravement paralysée. Elle a perdu le contrôle de tous les muscles de son corps et ne pouvait même plus respirer convenablement. Pendant cinq ans, elle a vécu avec la peur de mourir dans son sommeil. Malgré des années de physiothérapie, elle n’a jamais pu retrouver l’usage de la parole.
“Du jour au lendemain, tout m’a été enlevé”, écrit Ann, utilisant un appareil qui lui permet de taper lentement sur un écran d’ordinateur en faisant de petits mouvements de la tête. “J’avais une fille de 13 mois, un beau-fils de 8 ans et un mariage de 26 mois.“
Aujourd’hui, Ann collabore avec des chercheurs de l’UC San Francisco et de l’UC Berkeley pour développer une nouvelle technologie cerveau-ordinateur. Cette technologie pourrait permettre à des personnes comme elle de communiquer plus naturellement grâce à un avatar numérique ressemblant à un être humain. Pour la première fois, la parole ou les expressions faciales ont été synthétisées à partir de signaux cérébraux. Le système peut également décoder ces signaux en texte à près de 80 mots par minute, une nette amélioration par rapport à son dispositif de communication actuel qui délivre 14 mots par minute.
Edward Chang, MD, président du département de chirurgie neurologique à l’UCSF, espère que cette percée, publiée le 23 août 2023 dans la revue Nature, conduira à un système approuvé par la FDA permettant la parole à partir de signaux cérébraux.
Ann, qui était professeure de mathématiques au lycée au Canada avant son AVC en 2005, a décrit sa vie depuis dans un article qu’elle a écrit pour un cours de psychologie. Elle a parlé du syndrome d’enfermement, où une personne est pleinement consciente et a toutes ses sensations, mais est enfermée dans un corps où aucun muscle ne fonctionne.
L’équipe de Chang a tenté de décoder les signaux cérébraux d’Ann en parole riche, ainsi que les mouvements qui animent le visage d’une personne pendant une conversation. Pour ce faire, ils ont implanté un rectangle ultra-fin de 253 électrodes sur la surface de son cerveau. Ces électrodes ont intercepté les signaux cérébraux qui, sans l’AVC, auraient été envoyés aux muscles de ses lèvres, de sa langue, de sa mâchoire, de son larynx et de son visage.
“Mon cerveau a une drôle de sensation lorsqu’il entend ma voix synthétisée”, a-t-elle écrit en réponse à une question. “C’est comme si j’entendais un vieil ami.
Ann
L’équipe a animé l’avatar d’Ann avec l’aide d’un logiciel qui simule et anime les mouvements musculaires du visage. Ils ont créé des processus d’apprentissage automatique personnalisés qui ont permis au logiciel de la société de s’harmoniser avec les signaux envoyés par le cerveau d’Ann lorsqu’elle essayait de parler.
Pour Ann, participer au développement de cette technologie a été une expérience qui a changé sa vie. Elle a écrit : “Faire partie de cette étude m’a donné un sens à ma vie. J’ai l’impression de contribuer à la société. C’est incroyable que j’aie vécu aussi longtemps ; cette étude m’a permis de mieux vivre pendant que je suis encore en vie.”
Article original en anglais sur ucsf.edu