White Circle : pourquoi les dirigeants d'OpenAI et d'Anthropic ont investi des millions dans le contrôle de l'IA d'entreprise

Édité par : Aleksandr Lytviak

Les dirigeants des entreprises concevant les modèles d'intelligence artificielle les plus puissants sont devenus, contre toute attente, les investisseurs d'une start-up chargée de les encadrer. La pépite française White Circle a ainsi levé 11 millions de dollars auprès de cadres supérieurs d'OpenAI, d'Anthropic et de DeepMind afin de proposer aux entreprises des outils de surveillance et de protection pour leurs systèmes d'IA. Ce mouvement témoigne moins d'une percée technologique que d'un aveu : même les concepteurs des modèles de pointe doutent de leur capacité à gérer seuls les risques liés à leur déploiement massif.

White Circle développe une plateforme capable de suivre en temps réel le comportement de l'IA au sein des infrastructures d'entreprise. Le système identifie les anomalies, les fuites de données potentielles et les tentatives des modèles de s'affranchir des limites établies. Contrairement aux solutions de cybersécurité classiques, l'accent est mis ici sur la logique interne des réseaux de neurones, de la génération de réponses à l'interaction avec les bases de données privées. Les investisseurs, qui côtoient ces modèles au quotidien, perçoivent dans ce projet un levier pour minimiser les risques réputationnels et juridiques encourus par leurs clients.

Le financement ne provient pas de fonds de capital-risque traditionnels, mais directement de figures emblématiques de l'industrie. Ce virage rompt avec le schéma habituel où les start-ups de sécurité sont financées par des investisseurs technologiques généralistes. Dans ce cas précis, les fonds émanent de ceux qui portent potentiellement la responsabilité des défaillances que White Circle promet de corriger. Un tel geste souligne le besoin croissant d'un contrôle indépendant, les créateurs de modèles admettant eux-mêmes les limites de leur expertise en conditions réelles d'exploitation.

Pour les entreprises, cette évolution signe l'apparition d'un nouveau palier de responsabilité. Les sociétés qui intègrent l'IA à leurs processus décisionnels doivent désormais prendre en compte non seulement la précision des résultats, mais aussi l'éventualité de comportements imprévisibles. White Circle propose des outils permettant de consigner ces incidents et de générer des rapports destinés aux régulateurs. Face au durcissement législatif en Europe et aux États-Unis, une telle surveillance pourrait s'imposer comme une composante obligatoire de toute infrastructure d'entreprise.

La situation n'est pas sans rappeler l'histoire de l'industrie automobile au début du XXe siècle : les constructeurs ont d'abord vendu des voitures sans ceintures de sécurité, avant d'investir eux-mêmes dans des normes et des dispositifs restreignant leur usage. Il en va de même ici, où ceux qui accélèrent la prolifération de l'IA mettent en place, en parallèle, les mécanismes nécessaires à son endiguement. Il ne s'agit pas d'une contradiction, mais d'une réponse logique à l'ampleur des enjeux, une simple erreur de modèle pouvant impacter des milliers d'utilisateurs ou des millions de transactions.

3 Vues

Sources

  • French startup White Circle secures $11M from OpenAI, Anthropic, DeepMind leaders to monitor and secure enterprise AI

Avez-vous trouvé une erreur ou une inexactitude ?Nous étudierons vos commentaires dans les plus brefs délais.