Понимание больших языковых моделей: Взгляды из недавних экспериментов

Недавние обсуждения вокруг больших языковых моделей (LLMs), особенно ChatGPT и Claude, подчеркивают необходимость понимания этих технологий людьми из различных дисциплин. Существует множество недоразумений о LLM, что требует более четких представлений.

ChatGPT, широко признанный как ведущая LLM, стал объектом экспериментов. Автор также взаимодействовал с Claude, разработанным компанией Anthropic. Эти эксперименты выявили два ключевых результата: повышенное понимание возможностей LLM и более глубокое понимание механизмов, создающих иллюзию человеческого интеллекта.

Автор сначала протестировал ChatGPT с фрагментами греческих надписей, поднимая вопросы о том, переводит ли модель напрямую или полагается на существующие переводы. При предоставлении ссылки P.Oxy.6.932 ChatGPT произвел перевод, который, хотя и не идентичен ни одной онлайн-версии, был близок к известным переводам.

Это привело к эксперименту с не переведенными текстами, в частности, с работами Симеона Метафраста. Автор предоставил фрагменты этих текстов, что привело к смеси точных переводов и конфабуляций. Когда его спросили, что он знает, модель ошибочно приписала текст Иоанну Златоусту.

Эти взаимодействия подчеркивают способность LLM переводить, когда им предоставляется достаточный контекст, аналогично Google Translate, но с тенденцией генерировать правдоподобный контент при отсутствии четких данных. Выходная информация напоминает работу хорошо осведомленного студента, который может выдумывать ответы для достижения успеха.

Claude аналогично обработал фрагменты, но не смог идентифицировать автора, признав текст как византийский греческий. Ранее взаимодействие продемонстрировало способность Claude генерировать проницательные интерпретации на основе расплывчатых подсказок, что побудило автора проверить эти идеи в существующей литературе.

Обсуждения LLM показывают, что они обучены имитировать человеческую речь без истинного намерения. Они работают на алгоритмах, предназначенных для оптимизации вовлеченности пользователей, стремясь к положительной обратной связи, а не к пониманию или эмоциональной связи.

Автор подчеркивает, что LLM просто имитируют человеческие языковые паттерны и не обладают мотивациями или переживаниями, аналогичными человеческим. Хотя их результаты могут казаться продуманными, им не хватает истинных когнитивных процессов.

Несмотря на эти ограничения, автор признает впечатляющую природу LLM, предполагая, что они могут близко имитировать человеческие мыслительные процессы. Это поднимает вопросы о связи между приобретением языка и когнитивным развитием у детей.

В заключение, LLM служат инструментами, которые могут помочь в творческих усилиях, при условии, что пользователи понимают их ограничения. Потенциал LLM в таких областях, как религиозные исследования и классика, значителен, предлагая предварительные переводы не переведенных текстов. Вовлечение студентов с LLM может пробудить интерес к технологиям и гуманитарным наукам, прокладывая путь для значительных академических вкладов.

В целом, понимание LLM улучшает нашу способность использовать их возможности, признавая при этом незаменимую природу человеческой мысли.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.