OpenAI представила свою новую модель ИИ, o3, преемника предыдущей серии o1. Эта новая серия включает o3 и меньшую версию, o3-mini, предназначенную для выполнения специфических задач.
Модель o2 была пропущена, чтобы избежать путаницы с британским поставщиком телекоммуникационных услуг O2. Хотя обе модели еще не доступны широкой публике, исследователи в области компьютерной безопасности могут подать заявки на доступ уже сейчас, при этом ожидается, что o3-mini будет представлен широкой публике к концу января, за чем последует o3.
OpenAI использует новую технику, называемую 'обдуманным согласованием', чтобы предотвратить попытки обмана пользователей. В отличие от большинства других моделей ИИ, o3 проводит самопроверку, что помогает смягчить распространенные проблемы, с которыми сталкиваются системы ИИ.
Этот процесс проверки может вызвать задержки, так как o3 требуется больше времени—от нескольких секунд до минуты—чтобы прийти к решениям. Тем не менее, он, как правило, более надежен в таких областях, как физика, наука и математика.
Обученный с помощью обучения с подкреплением, o3 может 'думать' перед тем, как ответить, используя то, что OpenAI называет 'частной цепочкой мыслей.' После получения запроса o3 делает паузу, чтобы рассмотреть связанные вопросы и объяснить свое рассуждение, прежде чем подвести итог тому, что считает наиболее точным ответом.
Что касается производительности, o3 показал значительное улучшение на тесте ARC-AGI, достигнув в три раза лучших результатов, чем o1, в сложных условиях. Однако он не справился с очень простыми задачами, что подчеркивает основные различия по сравнению с человеческим интеллектом.
На других тестах o3 превзошел своих конкурентов, хотя результаты внешних оценок из источников вне OpenAI все еще ожидаются.