Meta, материнская компания Facebook, представила новую политическую структуру, направленную на управление рисками, связанными с продвинутыми системами искусственного интеллекта (ИИ). «Фронтирная структура ИИ» классифицирует системы ИИ на два уровня риска: «высокий риск» и «критический риск». Системы с высоким риском, которые включают модели ИИ, которые могут способствовать кибератакам или способствовать химическим и биологическим угрозам, будут подвергаться ограниченному доступу и мерам безопасности перед выпуском в общественное пользование. Системы с критическим риском, которые могут привести к разрушительным и неконтролируемым последствиям при неправильном использовании, будут приостановлены в разработке до тех пор, пока не будут введены достаточные меры безопасности.
Подход Meta к оценке риска ИИ основан на экспертных оценках внутренних и внешних исследователей, а не на стандартизированных эмпирических тестах. Компания признает, что в области безопасности ИИ отсутствуют «достаточно надежные» научные методы для установления точных показателей риска.
Публикация «Фронтирной структуры ИИ» представляется стратегическим шагом в ответ на растущие опасения по поводу открытой философии разработки ИИ Meta. Хотя Meta придерживается более открытого подхода к разработке ИИ, она также подвергалась критике за отсутствие строгих мер безопасности, что вызвало опасения по поводу возможного неправильного использования ее моделей ИИ.
Политический документ Meta подчеркивает важность баланса между инновациями и безопасностью. Компания заявляет: «Мы считаем, что, учитывая как преимущества, так и риски при принятии решений о том, как разрабатывать и внедрять передовой ИИ, можно предоставить эту технологию обществу таким образом, чтобы сохранить преимущества этой технологии для общества, а также поддерживать соответствующий уровень риска».