Лидеры компаний, создающих самые мощные модели искусственного интеллекта, неожиданно стали инвесторами стартапа, который берётся за их ограничение. Французская компания White Circle привлекла 11 миллионов долларов от топ-менеджеров OpenAI, Anthropic и DeepMind, чтобы предложить предприятиям инструменты мониторинга и защиты ИИ-систем. Этот шаг раскрывает не столько технологический прорыв, сколько признание: даже создатели передовых моделей не уверены, что смогут сами справиться с рисками их массового внедрения.
White Circle разрабатывает платформу, которая отслеживает поведение ИИ в реальном времени внутри корпоративных инфраструктур. Система фиксирует отклонения, потенциальные утечки данных и попытки моделей выйти за заданные рамки. В отличие от традиционных решений кибербезопасности, фокус смещён именно на саму логику работы нейросетей — от генерации ответов до взаимодействия с внутренними базами. Инвесторы из числа тех, кто ежедневно сталкивается с этими моделями, видят в проекте способ снизить репутационные и юридические риски для клиентов.
Финансирование поступило не от венчурных фондов, а напрямую от ключевых фигур индустрии. Это меняет привычную картину: обычно стартапы в сфере безопасности получают деньги от общих технологических инвесторов. Здесь же деньги пришли от тех, кто потенциально несёт ответственность за проблемы, которые White Circle обещает решать. Такой жест указывает на растущую потребность в независимом контроле, когда сами разработчики моделей признают пределы своей экспертизы в области эксплуатации.
Для предприятий это означает появление нового слоя ответственности. Компании, интегрирующие ИИ в процессы принятия решений, теперь должны учитывать не только точность ответов, но и возможность непредсказуемого поведения модели. White Circle предлагает инструменты, которые позволяют фиксировать такие случаи и формировать отчётность для регуляторов. В условиях ужесточающегося законодательства в Европе и США такой мониторинг может стать обязательным элементом корпоративной инфраструктуры.
Ситуация напоминает историю с автомобильной промышленностью начала XX века: производители сначала продавали машины без ремней безопасности, а потом сами же инвестировали в стандарты и системы, которые ограничивали их использование. Аналогично и здесь — те, кто ускоряет распространение ИИ, одновременно создают механизмы его сдерживания. Это не противоречие, а естественная реакция на масштаб последствий, когда ошибка модели может повлиять на тысячи пользователей или миллионы транзакций.



