White Circle:为何 OpenAI 与 Anthropic 掌门人斥资数百万押注企业级 AI 监管?

编辑者: Aleksandr Lytviak

全球最顶尖 AI 模型的缔造者们,出人意料地成了一家初创公司的投资者,而这家公司的主攻方向正是对这些模型进行限制。法国公司 White Circle 近日从 OpenAI、Anthropic 和 DeepMind 的高管手中筹集了 1100 万美元,旨在为企业提供 AI 系统的监控与防护工具。这一举动与其说是技术上的突破,不如说是一种坦白:即便是最先进模型的创造者,也无法确信自己能独立应对 AI 大规模应用带来的风险。

White Circle 正在开发一套能在企业基础架构内实时追踪 AI 行为的平台。该系统能够精准捕捉模型偏离预设轨道、潜在的数据泄露以及尝试突破既定框架的行为。与传统的网络安全方案不同,其核心关注点在于神经网络本身的运行逻辑,涵盖了从回答生成到与内部数据库交互的全过程。对于那些日常与这些模型打交道的投资者而言,该项目是降低客户声誉损失及法律风险的有效途径。

此次融资并非源于风险投资基金,而是直接来自行业核心领袖。这打破了以往的安全领域惯例:通常这类初创公司会向通用科技投资者寻求资金。但在本次融资中,出资人恰恰是那些对 White Circle 承诺解决的问题负有潜在责任的人。这种表态折射出独立监管的需求日益增长,因为模型开发者也承认,自己在实际应用领域的专业能力存在局限。

对企业而言,这意味着多了一层责任。将 AI 整合进决策流程的公司,现在不仅要关注回答的准确性,还必须防范模型出现不可预测的行为。White Circle 提供的工具能够记录此类异常,并为监管机构生成合规报告。随着欧美立法环境的收紧,此类监控系统未来极有可能成为企业基础设施中的标配。

这一现状让人想起 20 世纪初的汽车工业:制造商最初销售没有安全带的汽车,随后却亲自投资制定相关标准和系统来限制车辆的随意运行。在 AI 领域亦是如此——那些推动技术扩散的人,正同步建立起制约机制。这并非自相矛盾,而是对后果规模的必然反应,因为一旦模型出错,受波及的可能是数千名用户或数百万笔交易。

3 查看

来源

  • French startup White Circle secures $11M from OpenAI, Anthropic, DeepMind leaders to monitor and secure enterprise AI

你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。