White Circle: Waarom de top van OpenAI en Anthropic miljoenen investeert in de beheersing van zakelijke AI

Bewerkt door: Aleksandr Lytviak

De kopstukken achter de krachtigste AI-modellen van dit moment zijn verrassend genoeg de investeerders geworden van een startup die deze systemen juist aan banden legt. Het Franse bedrijf White Circle heeft 11 miljoen dollar opgehaald bij topmanagers van OpenAI, Anthropic en DeepMind om bedrijven te voorzien van instrumenten voor de monitoring en beveiliging van AI-systemen. Deze stap duidt niet zozeer op een technologische doorbraak, maar is eerder een erkenning van het feit dat zelfs de makers van de meest geavanceerde modellen er niet op vertrouwen dat ze de risico's van grootschalige implementatie eigenhandig kunnen beheersen.

White Circle ontwikkelt een platform dat het gedrag van kunstmatige intelligentie binnen de zakelijke infrastructuur in realtime volgt. Het systeem signaleert afwijkingen, potentiële datalekken en pogingen van modellen om buiten hun vastgestelde kaders te treden. In tegenstelling tot traditionele cybersecurity-oplossingen ligt de focus hier specifiek op de werkingslogica van de neurale netwerken zelf — van het genereren van antwoorden tot de interactie met interne databases. De investeerders, die dagelijks met deze modellen werken, zien in het project een manier om de reputatieschade en juridische risico's voor klanten te beperken.

De financiering is niet afkomstig van durfkapitaalfondsen, maar rechtstreeks van de belangrijkste kopstukken uit de sector. Dit wijkt af van het gebruikelijke patroon, waarbij startups in de beveiligingssector hun kapitaal ophalen bij algemene technologie-investeerders. In dit geval is het geld afkomstig van degenen die potentieel verantwoordelijk zijn voor de problemen die White Circle belooft op te lossen. Een dergelijke stap onderstreept de groeiende behoefte aan onafhankelijk toezicht, nu de ontwikkelaars van de modellen zelf de grenzen van hun expertise op het gebied van operationele inzet erkennen.

Voor ondernemingen brengt dit een nieuwe laag van verantwoordelijkheid met zich mee. Bedrijven die AI integreren in hun besluitvormingsprocessen, moeten voortaan niet alleen rekening houden met de accuratesse van de antwoorden, maar ook met de mogelijkheid van onvoorspelbaar gedrag van het model. White Circle biedt instrumenten aan die dergelijke incidenten vastleggen en rapportages voor toezichthouders genereren. Gezien de steeds strengere wetgeving in Europa en de VS zou een dergelijke monitoring wel eens een verplicht onderdeel van de zakelijke infrastructuur kunnen worden.

De huidige situatie doet denken aan de geschiedenis van de auto-industrie aan het begin van de 20e eeuw: fabrikanten verkochten aanvankelijk auto's zonder veiligheidsgordels, om vervolgens zelf te investeren in standaarden en systemen die het gebruik ervan reguleerden. Iets soortgelijks zien we nu gebeuren — de partijen die de verspreiding van AI versnellen, bouwen tegelijkertijd aan de mechanismen om deze in te dammen. Dit is geen tegenstelling, maar een logische reactie op de mogelijke impact, waarbij een fout van een model direct gevolgen kan hebben voor duizenden gebruikers of miljoenen transacties.

3 Weergaven

Bronnen

  • French startup White Circle secures $11M from OpenAI, Anthropic, DeepMind leaders to monitor and secure enterprise AI

Heb je een fout of onnauwkeurigheid gevonden?We zullen je opmerkingen zo snel mogelijk in overweging nemen.