Недавнее исследование, проведенное учеными из Google DeepMind и Лондонской школы экономики (LSE), предполагает, что боль может быть надежным способом обнаружения зарождающегося сознания в системах искусственного интеллекта (ИИ). Эта находка, опубликованная на сервере препринтов arXiv, подчеркивает сложное взаимодействие между эмоциями и сознанием как у живых существ, так и у ИИ.
Сознание у животных часто определяется способностью воспринимать эмоции и ощущения, такие как боль, удовольствие или страх. Хотя многие эксперты в области ИИ согласны с тем, что современные модели генеративного ИИ (GenAI) не обладают сознанием, исследование предлагает рамки для будущих тестов на сознание у ИИ.
Исследователи создали текстовую игру для больших языковых моделей (LLMs), которые являются основой популярных чат-ботов, таких как ChatGPT. Модели должны были зарабатывать очки, принимая различные решения, некоторые из которых включали переживание боли для получения больших наград. Дарья Захарова из LSE объяснила, что модели должны были выбирать между вариантами, которые причиняли боль или позволяли накапливать очки.
Исследование основано на предыдущих исследованиях животных, в частности, на эксперименте 2016 года, в котором крабов подвергали электрическим шокам различной интенсивности, чтобы наблюдать их пороги боли. Соавтор Джонатан Бирч отметил, что ИИ не демонстрирует поведение в традиционном смысле, что затрудняет оценку сознания.
Интересно, что результаты показали, что, хотя большинство LLMs стремились максимизировать свои очки, они также корректировали свои стратегии, достигая определенных порогов боли или удовольствия. Исследователи обнаружили, что LLMs не всегда воспринимали боль как негативную, а удовольствие как положительное, иногда интерпретируя дискомфорт как полезный.
Джефф Себо из Нью-Йоркского университета похвалил оригинальность этого исследования, подчеркивая его аспект поведенческих тестов, а не полагаясь исключительно на отчеты участников. Он предположил, что сознание у ИИ может появиться в ближайшем будущем, хотя для понимания внутренних процессов LLMs необходимо больше исследований.
Бирч заключил, что необходимы дальнейшие исследования для разработки лучших тестов на обнаружение сознания в системах ИИ, так как причины поведения моделей остаются неясными.