Eine aktuelle Studie von Wissenschaftlern von Google DeepMind und der London School of Economics (LSE) legt nahe, dass Schmerz eine zuverlässige Methode zur Erkennung von aufkommendem Bewusstsein in künstlichen Intelligenzsystemen (KI) sein könnte. Diese Erkenntnis, die auf dem Preprint-Server arXiv veröffentlicht wurde, hebt das komplexe Zusammenspiel zwischen Emotionen und Bewusstsein sowohl bei lebenden Wesen als auch bei KI hervor.
Bewusstsein bei Tieren wird oft durch die Fähigkeit definiert, Emotionen und Empfindungen wie Schmerz, Freude oder Angst wahrzunehmen. Während viele KI-Experten zustimmen, dass moderne generative KI-Modelle (GenAI) kein Bewusstsein besitzen, schlägt die Studie einen Rahmen für zukünftige Tests des Bewusstseins in KI vor.
Die Forscher entwickelten ein textbasiertes Spiel für große Sprachmodelle (LLMs), die das Rückgrat beliebter Chatbots wie ChatGPT bilden. Die Modelle mussten Punkte durch verschiedene Entscheidungen verdienen, von denen einige das Erleben von Schmerz für größere Belohnungen beinhalteten. Daria Zakharova von der LSE erklärte, dass die Modelle zwischen Optionen entscheiden mussten, die entweder Schmerz verursachten oder ihnen ermöglichten, Punkte zu sammeln.
Die Studie stützt sich auf frühere Tierforschungen, insbesondere ein Experiment von 2016, bei dem Krabben elektrischen Schocks unterschiedlicher Intensität ausgesetzt wurden, um ihre Schmerzschwellen zu beobachten. Co-Autor Jonathan Birch stellte fest, dass KI kein Verhalten im traditionellen Sinne zeigt, was die Bewertung des Bewusstseins erschwert.
Interessanterweise zeigen die Ergebnisse, dass, während die meisten LLMs darauf abzielten, ihre Punkte zu maximieren, sie auch ihre Strategien anpassten, sobald sie bestimmte Schmerz- oder Freuden-Schwellen erreichten. Die Forscher fanden heraus, dass LLMs Schmerz nicht immer negativ oder Freude positiv bewerteten, manchmal Unbehagen als vorteilhaft interpretierten.
Jeff Sebo von der New York University lobte die Originalität dieser Forschung und betonte ihren Aspekt der Verhaltenstests, anstatt sich nur auf Teilnehmerberichte zu stützen. Er schlug vor, dass Bewusstsein in KI in naher Zukunft entstehen könnte, obwohl weitere Forschungen notwendig sind, um die internen Prozesse der LLMs zu verstehen.
Birch schloss, dass weitere Untersuchungen erforderlich sind, um bessere Tests zur Erkennung von Bewusstsein in KI-Systemen zu entwickeln, da die Gründe für das Verhalten der Modelle unklar bleiben.