AI 模型展現類人物件理解:最新研究

编辑者: Veronika Radoslavskaya

研究人員發現,大型語言模型 (LLM) 可以像人類一樣理解和處理自然物件。

這項突破性發現暗示了我們對 AI 認知能力認知的潛在轉變。 來自中國科學院和廣州華南理工大學的研究團隊進行了這項研究。他們探索了 LLM 是否可以發展出類似於人類物件表徵的認知過程。這包括根據功能、情感和環境來識別和分類物件。 研究人員測試了 ChatGPT 3.5 和 Gemini Pro Vision 等模型。他們使用文本和圖像為它們分配了「物件消除」任務。AI 系統分析了與狗、椅子和汽車等 1854 個自然物件相關的 470 萬條回應。 結果顯示,AI 模型創建了 66 個用於組織物件的概念維度。這與人類對周圍世界的分類和理解方式相呼應。結合文本和圖像的多模態模型,與人類思維的契合度更高。 此外,腦部掃描數據表明,AI 和人腦對物件的反應之間存在重疊。這表明未來的 AI 可能具有更直觀和與人類相容的推理能力。這對於機器人技術、教育和人機協作等領域至關重要。 然而,需要注意的是,LLM 對物件的理解方式與人類的情感和體驗方式不同。這項研究為開發能夠更好地與世界互動和理解世界的 AI 開闢了新的途徑。

來源

  • Urban Tecno

发现错误或不准确的地方吗?

我们会尽快处理您的评论。

AI 模型展現類人物件理解:最新研究 | Gaya One