Bei einer Schlaganfall-Patientin mit schweren Paresen auch des Sprechapparates gelang auf Basis hochdichter Oberflächen-EEG-Aufzeichnungen des Sprachkortex eine leistungsfähige Echtzeit-Dekodierung für die drei komplementären sprachbezogenen Modalitäten Text, Sprachaudio und Avatar-Gesichtsanimation. Nach einem Training von nur zwei Wochen konnte die Effizienz mittels Deep-Learning optimiert werden. Für den Text wurde eine durchschnittliche Rate von 78 Wörtern/min mit einer Wortfehlerrate von 25 % erzielt. Für Sprachaudio ergab sich eine verständliche und schnelle Sprachsynthese mit personalisierter Stimme. Bei der Gesichtsanimation des Avatars ließen sich adäquate orofaziale Bewegungen für die Sprache und nicht-sprachliche kommunikative Gesten realisieren. JL
In Kalifornien entwickeltes Brain-Computer-Interface
Neuro-Depesche 9/2023
KI-Neuroprothese lässt Gelähmte sprechen
Kalifornische Wissenschaftler haben eine Hochleistungs-Neuroprothese zur Sprachdekodierung und Avatar-Steuerung entwickelt und praktisch erprobt. Diese mittels künstlicher Intelligenz (KI) optimierte Technik eröffnet stimmbeeinträchtigten Menschen erstmals die Möglichkeit, multimodal zu kommunizieren.
Quelle: Metzger SL et al.; A high-performance neuroprosthesis for speech decoding and avatar control. Nature 2023; 620(7976): 1037-46
ICD-Codes:
I61.9