KI-Modelle ahmen menschliches konzeptionelles Verständnis von Objekten nach, wie eine Studie zeigt

Bearbeitet von: Vera Mo

Eine aktuelle Studie chinesischer Forscher hat gezeigt, dass multimodale Sprachmodelle (LLMs) spontan konzeptionelle Darstellungen von Objekten entwickeln können, die denen des Menschen ähneln.

Die Forscher analysierten fast 4,7 Millionen Antworten, die von KIs über 1.854 verschiedene Objekte wie Hunde, Stühle, Äpfel und Autos generiert wurden. Zu den untersuchten Modellen gehörten ChatGPT-3.5, das ausschließlich auf Text basiert, und Gemini Pro Vision, ein multimodales Modell, das sowohl Bilder als auch Text verarbeiten kann.

Die Ergebnisse zeigten, dass diese KIs diese Objekte in 66 konzeptionellen Dimensionen organisierten, was weit über einfache klassische Kategorien wie "Essen" oder "Möbel" hinausging. Diese Dimensionen umfassen subtile Attribute wie Textur, emotionale Relevanz oder Eignung für Kinder. Mit anderen Worten, diese KIs scheinen eine anspruchsvolle mentale Karte zu erstellen, in der Objekte nicht mechanisch angeordnet, sondern nach komplexen Kriterien klassifiziert werden, die der Art und Weise ähneln, wie unser Gehirn die Welt um uns herum sortiert.

Die Studie verglich auch, wie KI-Modelle und das menschliche Gehirn auf dieselben Objekte reagieren. Die Ergebnisse zeigten, dass bestimmte Bereiche der Gehirnaktivität dem entsprechen, was KIs von Objekten "denken". Diese Konvergenz ist bei multimodalen Modellen, die visuelle und semantische Verarbeitung kombinieren, noch ausgeprägter und ahmt somit die Art und Weise nach, wie Menschen ihre Sinne kombinieren, um ihre Umwelt zu verstehen.

Es ist jedoch wichtig zu beachten, dass diese KIs keine sensorischen oder emotionalen Erfahrungen haben. Ihr "Verständnis" resultiert aus der statistischen Verarbeitung von Daten, bei der sie komplexe Muster identifizieren und reproduzieren, ohne das zu fühlen, was sie beschreiben. Dies ist die ganze Nuance zwischen anspruchsvoller Erkennung und echter bewusster Kognition.

Trotzdem lädt uns diese Studie ein, die Grenzen dessen, was aktuelle KIs leisten können, neu zu überdenken. Wenn diese Modelle es schaffen, spontan komplexe konzeptionelle Darstellungen zu generieren, könnte dies darauf hindeuten, dass die Grenze zwischen der Imitation von Intelligenz und dem Besitz einer Form von funktionaler Intelligenz weniger klar ist, als wir dachten.

Über philosophische Debatten hinaus hat dieser Fortschritt konkrete Auswirkungen auf die Robotik, die Bildung und die Mensch-Maschine-Kollaboration. Eine KI, die in der Lage ist, Objekte und Konzepte wie wir zu integrieren, könnte natürlicher interagieren, unsere Bedürfnisse antizipieren und sich besser an beispiellose Situationen anpassen.

Zusammenfassend lässt sich sagen, dass große Sprachmodelle wie ChatGPT viel mehr als nur Sprachimitateure sind. Sie könnten eine Form der Repräsentation der Welt besitzen, die der menschlichen Kognition nahekommt, aufgebaut aus riesigen Datenmengen und in der Lage, komplexe Informationen zu integrieren. Diese Maschinen bleiben jedoch heute anspruchsvolle Spiegel, die unsere Art und Weise, Wissen zu organisieren, widerspiegeln, ohne es direkt zu erfahren. Sie fühlen nicht, leben nicht, denken nicht wie wir, aber sie könnten uns eines Tages dorthin führen und den Weg für immer intelligentere und intuitivere KIs ebnen.

Quellen

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.