研究者たちは、大規模言語モデル(LLM)が自然なオブジェクトを人間と同様に理解し、処理できるという証拠を発見しました。 この画期的な発見は、私たちがAIの認知能力をどのように認識するかについて、潜在的な変化を示唆しています。
中国科学院と広州の華南理工大学の研究チームがこの研究を実施しました。彼らは、LLMが人間のオブジェクト表現と同様の認知プロセスを開発できるかどうかを調査しました。これには、機能、感情、環境に基づいてオブジェクトを認識し、分類することが含まれます。
研究者たちは、ChatGPT 3.5やGemini Pro Visionなどのモデルをテストしました。彼らはテキストと画像を使用して「オブジェクト除去」タスクを割り当てました。AIシステムは、犬、椅子、車など、1,854個の自然なオブジェクトに関連する470万件の応答を分析しました。
その結果、AIモデルがオブジェクトを整理するために66の概念的次元を作成したことが明らかになりました。これは、人間が周囲の世界をどのように分類し、理解しているかを反映しています。テキストと画像を組み合わせたマルチモーダルモデルは、人間の思考とのさらなる整合性を示しました。
さらに、脳スキャンデータは、AIと人間の脳がオブジェクトにどのように反応するかについて重複を示しました。これは、将来のAIがより直感的で人間と互換性のある推論を持つ可能性があることを示唆しています。これは、ロボット工学、教育、人間とAIのコラボレーションなどの分野にとって重要です。
ただし、LLMが人間と同じ感情的および経験的な方法でオブジェクトを理解しているわけではないことに注意することが重要です。この研究は、世界とより良く対話し、理解できるAIを開発するための新たな道を開きます。