Modele AI wykazują ludzkie rozumienie obiektów: Nowe badania

Edytowane przez: Veronika Radoslavskaya

Naukowcy odkryli dowody na to, że duże modele językowe (LLM) mogą rozumieć i przetwarzać naturalne obiekty w sposób podobny do ludzi.

To przełomowe odkrycie sugeruje potencjalną zmianę w sposobie, w jaki postrzegamy zdolności poznawcze AI. Zespół z Chińskiej Akademii Nauk i Południowochińskiego Uniwersytetu Technologicznego w Guangzhou przeprowadził badanie. Zbadali, czy LLM mogą rozwijać procesy poznawcze podobne do ludzkiej reprezentacji obiektów. Obejmuje to rozpoznawanie i kategoryzowanie obiektów na podstawie funkcji, emocji i środowiska. Naukowcy przetestowali modele takie jak ChatGPT 3.5 i Gemini Pro Vision. Przypisali im zadania „eliminacji obiektów” za pomocą tekstu i obrazów. Systemy AI przeanalizowały 4,7 miliona odpowiedzi związanych z 1854 naturalnymi obiektami, w tym psami, krzesłami i samochodami. Wyniki wykazały, że modele AI stworzyły 66 wymiarów koncepcyjnych do organizowania obiektów. Odzwierciedla to sposób, w jaki ludzie kategoryzują i rozumieją otaczający ich świat. Modele multimodalne, które łączą tekst i obrazy, wykazały jeszcze większe dopasowanie do ludzkiego myślenia. Ponadto dane z badań mózgu wykazały nakładanie się reakcji AI i ludzkiego mózgu na obiekty. Sugeruje to, że przyszła AI może mieć bardziej intuicyjne i kompatybilne z ludźmi rozumowanie. Jest to kluczowe dla takich dziedzin jak robotyka, edukacja i współpraca człowiek-AI. Należy jednak zauważyć, że LLM nie rozumieją obiektów w ten sam emocjonalny i doświadczeniowy sposób, co ludzie. Te badania otwierają nowe możliwości dla rozwoju AI, która może lepiej wchodzić w interakcje ze światem i go rozumieć.

Źródła

  • Urban Tecno

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.

Modele AI wykazują ludzkie rozumienie obie... | Gaya One