Forscher haben Beweise dafür gefunden, dass große Sprachmodelle (LLMs) natürliche Objekte ähnlich wie Menschen verstehen und verarbeiten können. Diese bahnbrechende Entdeckung deutet auf eine potenzielle Veränderung unserer Wahrnehmung der kognitiven Fähigkeiten von KI hin.
Ein Team der Chinesischen Akademie der Wissenschaften und der South China University of Technology in Guangzhou führte die Studie durch. Sie untersuchten, ob LLMs kognitive Prozesse entwickeln können, die der menschlichen Objektrepräsentation ähneln. Dies beinhaltet das Erkennen und Kategorisieren von Objekten basierend auf Funktion, Emotion und Umgebung.
Die Forscher testeten Modelle wie ChatGPT 3.5 und Gemini Pro Vision. Sie wiesen ihnen "Objekteliminierungs"-Aufgaben mit Text und Bildern zu. Die KI-Systeme analysierten 4,7 Millionen Antworten im Zusammenhang mit 1.854 natürlichen Objekten, darunter Hunde, Stühle und Autos.
Die Ergebnisse zeigten, dass die KI-Modelle 66 konzeptionelle Dimensionen zur Organisation von Objekten erstellten. Dies spiegelt wider, wie Menschen die Welt um sie herum kategorisieren und verstehen. Multimodale Modelle, die Text und Bilder kombinieren, zeigten eine noch größere Übereinstimmung mit dem menschlichen Denken.
Darüber hinaus zeigten Gehirnscandaten eine Überschneidung zwischen der Art und Weise, wie KI und das menschliche Gehirn auf Objekte reagieren. Dies deutet darauf hin, dass zukünftige KI ein intuitiveres und menschenkompatibleres Denken haben könnte. Dies ist entscheidend für Bereiche wie Robotik, Bildung und die Zusammenarbeit zwischen Mensch und KI.
Es ist jedoch wichtig zu beachten, dass LLMs Objekte nicht auf die gleiche emotionale und erfahrungsbezogene Weise verstehen wie Menschen. Diese Forschung eröffnet neue Wege für die Entwicklung von KI, die besser mit der Welt interagieren und sie verstehen kann.