Le PDG d'OpenAI, Sam Altman, a modifié sa position sur la réglementation de l'IA, plaidant désormais pour des normes menées par l'industrie plutôt que pour une pré-approbation gouvernementale stricte.
Lors d'une audition de la commission sénatoriale du commerce le 8 mai 2025, M. Altman a exprimé des inquiétudes quant à la pré-approbation gouvernementale rigoureuse des versions de modèles d'IA, qualifiant la loi européenne sur l'IA de « désastreuse ». Cela contraste avec son témoignage de 2023, où il soutenait une agence fédérale pour l'octroi de licences et les tests d'IA avancée.
Le point de vue actuel d'Altman s'aligne sur un sentiment plus large dans le secteur de la technologie et sur l'approche réglementaire « légère » de l'administration Trump. Le sénateur Ted Cruz a annoncé son intention de présenter un projet de loi créant un « bac à sable réglementaire pour l'IA ». L'audience, intitulée « Gagner la course à l'IA : renforcer les capacités américaines en matière d'informatique et d'innovation », comprenait également des témoignages de dirigeants de Microsoft, AMD et CoreWeave.
Des critiques comme Rumman Chowdhury suggèrent que l'industrie technologique détourne l'attention des préjudices immédiats. Jan Leike, ancien co-responsable de l'équipe Superalignment d'OpenAI, a démissionné en invoquant des préoccupations en matière de sécurité.
OpenAI a mis à jour ses directives de sécurité en avril 2025, autorisant potentiellement des ajustements si des concurrents publient des systèmes à haut risque sans garanties. Le débat se poursuit sur l'équilibre entre l'innovation en matière d'IA et des mesures de sécurité efficaces.