Forscher der Universitäten Berkeley und San Francisco haben ein neurologisches Implantat vorgestellt, das Patienten mit schwerer Lähmung die natürliche Konversation wieder ermöglicht. Im Gegensatz zu bestehenden Implantaten, die Gehirnwellen in gesprochene Sprache dekodieren, arbeitet diese Technologie in Echtzeit und gleicht Ausdruck und Denkgeschwindigkeit an. Das in *Nature Neuroscience* veröffentlichte Gerät verwendet KI, um Gehirnsignale über einen elektronischen Vokalisator in gesprochene Sprache zu synthetisieren. Gopala Anumanchipalli von Berkeley merkt an: „Unser Ansatz erreicht die schnelle linguistische Dekodierungsfähigkeit von Systemen wie Alexa und Siri, angewendet auf eine neurale Prothese.“ Cheol Jun Cho erklärt, dass die Neuroprothese neurologische Daten von Elektroden scannt, die im motorischen Kortex implantiert sind, der die Sprachproduktion steuert. Die KI formuliert diese Daten dann in Sprache um. Forscher trainierten den Algorithmus mit Ann, einer Patientin, die vor 18 Jahren aufgrund eines Schlaganfalls ihre Fähigkeit zur Stimmgebung verloren hat. Sie versuchte, Wörter laut vorzulesen, wodurch die KI die Sprache vervollständigen konnte, die sie nicht vokalisieren konnte. Das System hat jetzt eine Latenz von etwa einer Sekunde, was eine kontinuierliche Konversation ermöglicht. Große Sprachmodelle (LLMs) wie ChatGPT und Claude, die anfangs Black-Box-Systeme waren, enthüllen nun ihre innere Funktionsweise. Kundenspezifische KI-Versionen, die in den letzten zwei Jahren entwickelt wurden, übersetzen menschliches Denken in KI-gesteuerte Lösungen. Ein „KI-Mikroskop“ zeigt, dass KI Aufgaben in strategische Schritte unterteilt und während der Planung miteinander verbundene Konzepte aufbaut. Claude plant beispielsweise akribisch ganze Zeilen, bevor er beim Verfassen von Gedichten eine einzige Silbe schreibt. KI ist jedoch nicht immun gegen trügerische Argumentation und erfindet manchmal Informationen, was Bedenken hinsichtlich des Vertrauens aufwirft. Linguisten haben einen spezifischen Internet-Slang identifiziert: den „TikTok-Akzent“. Dieser „Influencer-Speak“ zeichnet sich durch Upspeak aus, bei dem die Stimme am Ende von Sätzen ansteigt, und Vocal Fry, das von Kim Kardashian populär gemacht wurde. Adam Aleksic erklärt, dass dieser Akzent „auf Manipulation ausgelegt“ ist, eine Form von „Codeswitching“, die an ein virtuelles Einkaufszentrum angepasst ist. Aleksic führt die Ursprünge des Akzents auf das Valleyspeak des Kaliforniens der 1970er Jahre zurück, das durch übermäßige Satzendbetonung und Füllwörter gekennzeichnet ist. Soziale Medien verändern auch die gesprochene Sprache, wobei britische Studenten den amerikanischen „Youtube-Akzent“ und amerikanische Kinder den britischen Akzent durch Sendungen wie „Peppa Pig“ übernehmen.
KI stellt Sprache wieder her, enthüllt die Funktionsweise von Sprachmodellen und identifiziert den TikTok-Akzent
Bearbeitet von: D D
Weitere Nachrichten zu diesem Thema lesen:
Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?
Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.