White Circle: Warum die Köpfe hinter OpenAI und Anthropic Millionen in die Kontrolle von Unternehmens-KI investieren

Bearbeitet von: Aleksandr Lytviak

Die Köpfe jener Unternehmen, die die leistungsstärksten Modelle der künstlichen Intelligenz entwickeln, sind überraschend als Investoren bei einem Startup eingestiegen, das sich deren Reglementierung verschrieben hat. Das französische Unternehmen White Circle sammelte 11 Millionen US-Dollar von Top-Managern von OpenAI, Anthropic und DeepMind ein, um Firmen Werkzeuge zur Überwachung und Absicherung von KI-Systemen anzubieten. Dieser Schritt offenbart weniger einen technologischen Durchbruch als vielmehr ein Eingeständnis: Selbst die Schöpfer fortschrittlichster Modelle sind sich unsicher, ob sie die Risiken einer massenhaften Implementierung allein beherrschen können.

White Circle entwickelt eine Plattform, die das Verhalten von KI innerhalb von Unternehmensstrukturen in Echtzeit überwacht. Das System registriert Abweichungen, potenzielle Datenlecks sowie Versuche der Modelle, ihre vorgegebenen Grenzen zu überschreiten. Im Gegensatz zu herkömmlichen Cybersicherheitslösungen liegt der Fokus gezielt auf der internen Logik der neuronalen Netze – von der Antwortgenerierung bis zur Interaktion mit internen Datenbanken. Investoren aus dem Kreis derer, die täglich mit diesen Modellen arbeiten, sehen in dem Projekt eine Möglichkeit, Reputationsrisiken und rechtliche Gefahren für ihre Kunden zu minimieren.

Die Finanzierung stammt dabei nicht von klassischen Risikokapitalfonds, sondern direkt von den Schlüsselfiguren der Branche. Dies verändert das gewohnte Bild, wonach Security-Startups üblicherweise Gelder von allgemeinen Technologie-Investoren erhalten. In diesem Fall kamen die Mittel von jenen Akteuren, die potenziell die Verantwortung für genau die Probleme tragen, die White Circle zu lösen verspricht. Eine solche Geste deutet auf den wachsenden Bedarf an unabhängiger Kontrolle hin, während die Entwickler selbst die Grenzen ihrer Expertise im praktischen Betrieb anerkennen.

Für Unternehmen bedeutet dies eine neue Ebene der Verantwortung. Firmen, die KI in ihre Entscheidungsprozesse integrieren, müssen nun nicht mehr nur auf die Genauigkeit der Ergebnisse achten, sondern auch auf unvorhersehbare Verhaltensmuster der Modelle. White Circle bietet Werkzeuge an, mit denen solche Vorfälle dokumentiert und Berichte für Regulierungsbehörden erstellt werden können. Angesichts der strengeren Gesetzgebung in Europa und den USA könnte ein solches Monitoring bald zu einem unverzichtbaren Bestandteil der Unternehmensinfrastruktur werden.

Die Situation erinnert an die Geschichte der Automobilindustrie im frühen 20. Jahrhundert: Zuerst verkauften Hersteller Autos ohne Sicherheitsgurte, nur um später selbst in Standards und Systeme zu investieren, die deren Nutzung einschränkten. Ähnlich verhält es sich hier – jene, die die Verbreitung der KI beschleunigen, schaffen zeitgleich Mechanismen zu ihrer Einhegung. Dies ist kein Widerspruch, sondern eine natürliche Reaktion auf die Tragweite der Folgen, wenn ein Modellfehler Tausende Nutzer oder Millionen von Transaktionen betreffen kann.

3 Ansichten

Quellen

  • French startup White Circle secures $11M from OpenAI, Anthropic, DeepMind leaders to monitor and secure enterprise AI

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.