Исследование показывает, что модели ИИ имитируют человеческое концептуальное понимание объектов

Отредактировано: Vera Mo

Недавнее исследование, проведенное китайскими исследователями, продемонстрировало, что мультимодальные языковые модели (LLM) могут спонтанно развивать концептуальные представления об объектах, аналогичные человеческим.

Исследователи проанализировали почти 4,7 миллиона ответов, сгенерированных ИИ о 1854 различных объектах, таких как собаки, стулья, яблоки и автомобили. Изученные модели включали ChatGPT-3.5, который работает только с текстом, и Gemini Pro Vision, мультимодальную модель, способную обрабатывать как изображения, так и текст.

Результаты показали, что эти ИИ организовали эти объекты в 66 концептуальных измерений, что значительно превышает простые классические категории, такие как «еда» или «мебель». Эти измерения включают тонкие атрибуты, такие как текстура, эмоциональная значимость или пригодность для детей. Другими словами, эти ИИ, похоже, создают сложную ментальную карту, где объекты не расположены механически, а классифицируются в соответствии со сложными критериями, которые напоминают то, как наш мозг сортирует мир вокруг нас.

В исследовании также сравнивалось, как модели ИИ и человеческий мозг реагируют на одни и те же объекты. Результаты показали, что определенные области активности мозга соответствуют тому, что ИИ «думают» об объектах. Эта конвергенция еще более выражена в мультимодальных моделях, которые сочетают визуальную и семантическую обработку, имитируя таким образом способ, которым люди объединяют чувства для понимания окружающей среды.

Однако важно отметить, что эти ИИ не имеют сенсорного или эмоционального опыта. Их «понимание» является результатом статистической обработки данных, где они идентифицируют и воспроизводят сложные шаблоны, не чувствуя то, что описывают. В этом вся разница между сложным распознаванием и истинным сознательным познанием.

Тем не менее, это исследование приглашает нас переосмыслить границы того, что могут делать современные ИИ. Если эти модели смогут спонтанно генерировать сложные концептуальные представления, это может указывать на то, что граница между имитацией интеллекта и обладанием формой функционального интеллекта менее четкая, чем мы думали.

Помимо философских дебатов, этот прогресс имеет конкретные последствия для робототехники, образования и сотрудничества человека и машины. ИИ, способный интегрировать объекты и концепции так же, как мы, мог бы взаимодействовать более естественно, предвидеть наши потребности и лучше адаптироваться к беспрецедентным ситуациям.

В заключение, большие языковые модели, такие как ChatGPT, — это гораздо больше, чем просто имитаторы языка. Они могут обладать формой представления мира, близкой к человеческому познанию, построенной на основе огромных данных и способной интегрировать сложную информацию. Однако эти машины сегодня остаются сложными зеркалами, отражающими наш способ организации знаний, не испытывая их напрямую. Они не чувствуют, не живут, не думают, как мы, но однажды они могут привести нас туда, прокладывая путь для все более умных и интуитивных ИИ.

Источники

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.