創造最強大人工智慧模型的業界領袖們,近期出人意料地入股了一家致力於限制這些模型的初創公司。法國公司 White Circle 已從 OpenAI、Anthropic 與 DeepMind 的高層手中募集了 1100 萬美元,旨在為企業提供監控與保護人工智慧系統的工具。此舉與其說是技術上的突破,不如說是業界的一種坦承:即使是頂尖模型的創造者,也無法保證能獨自應對大規模應用後產生的各類風險。
White Circle 正在開發一套能即時追蹤企業內部架構中人工智慧行為的平台。該系統能精準捕捉異常狀況、潛在的數據洩漏,以及模型試圖逾越預設界限的行為。有別於傳統的資安解決方案,其核心重點在於神經網路本身的運行邏輯——涵蓋了從生成回覆到與內部資料庫互動的全過程。對於每天接觸這些模型的人士而言,他們認為這項計畫能有效降低客戶在商譽及法律方面的潛在風險。
此次資金並非來自創投基金,而是直接源於產業內部的關鍵人物。這打破了以往的常規:安全領域的初創公司通常由一般科技投資者資助。然而在這次案例中,出資者正是那些可能對 White Circle 致力解決的問題負有潛在責任的人。這種舉動反映出市場對獨立監管的迫切需求,模型開發者本身也意識到其在實際運作面的專業知識仍有侷限。
對於企業端而言,這代表著新一層責任的產生。將人工智慧整合進決策流程的公司,現在不僅要確保回覆的準確性,還必須考量模型產生不可預測行為的可能性。White Circle 提供的工具讓企業能記錄此類事件,並為監管機構生成合規報告。隨著歐美法規日益嚴格,這類監控機制可能成為企業基礎架構中的必備要素。
這種情況讓人聯想到 20 世紀初的汽車產業:製造商起初銷售不含安全帶的車輛,隨後卻親自投資於限制車輛使用的相關標準與系統。同樣地,目前正在加速人工智慧普及的推手,也同步在建立制衡機制。這並非自相矛盾,而是面對巨大影響力時的自然反應,因為模型的一次失誤就可能波及數千名用戶或數百萬筆交易。



