Depuis le 2 février 2025, l'Union européenne a mis en œuvre des réglementations interdisant les systèmes d'IA jugés "à risque inacceptable". Cela fait partie du cadre réglementaire complet de l'UE sur l'IA, connu sous le nom de Loi sur l'IA de l'UE, qui est entrée en vigueur le 1er août 2024.
La loi classe les applications d'IA en quatre niveaux de risque : minimal, limité, élevé et inacceptable. Les systèmes à risque minimal, comme les filtres anti-spam, ne sont soumis à aucune surveillance, tandis que les applications à risque inacceptable, telles que celles utilisées pour le scoring social ou la manipulation des décisions, sont complètement interdites.
Les entreprises utilisant ces applications d'IA interdites pourraient faire face à des amendes allant jusqu'à 35 millions d'euros (environ 36 millions de dollars) ou 7% de leur chiffre d'affaires annuel, selon le montant le plus élevé. Cependant, l'application de ces amendes commencera après une période de transition.
Plus de 100 entreprises, dont Amazon et Google, ont signé le Pacte sur l'IA de l'UE en septembre 2024, s'engageant à respecter les principes de la loi sur l'IA. Notamment absents de ce pacte étaient Meta et Apple, qui doivent néanmoins se conformer aux réglementations.
La Commission européenne prévoit de publier de nouvelles directives début 2025 pour faciliter la mise en œuvre de la loi, à la suite de consultations avec les parties prenantes.