L'Irlande enquête sur la conformité de Google en matière d'IA avec les lois de confidentialité de l'UE

La Commission irlandaise de protection des données (DPC) a lancé une enquête sur la conformité de Google avec les lois de confidentialité de l'Union européenne concernant son modèle d'intelligence artificielle, le Pathways Language Model 2 (PaLM 2). Cette enquête se concentre sur la question de savoir si Google a réalisé une évaluation d'impact sur la protection des données avant de traiter les données personnelles des résidents de l'UE.

La DPC a souligné l'importance de telles évaluations pour protéger les droits individuels lorsque le traitement des données personnelles présente des risques importants. Ce contrôle s'inscrit dans une tendance mondiale plus large où les régulateurs examinent de plus en plus la gestion des données personnelles par les grandes entreprises technologiques dans le développement de l'IA.

En tant que régulateur principal de Google dans l'UE, l'enquête de la DPC s'aligne sur les efforts déployés dans l'ensemble du bloc pour garantir que les systèmes d'IA respectent le Règlement général sur la protection des données (RGPD). Google a déclaré qu'il coopérera pleinement à l'enquête.

Dans des développements connexes, la société X d'Elon Musk a accepté de cesser d'utiliser les données des utilisateurs européens pour son chatbot d'IA Grok suite à l'intervention de la DPC. De même, Meta Platforms a suspendu ses projets de former ses modèles d'IA en utilisant du contenu d'utilisateurs européens après des discussions avec la DPC.

Cette enquête met en lumière les tensions persistantes entre les réglementations sur la protection des données et l'avancement rapide des technologies d'IA, cruciales pour maintenir la confiance des utilisateurs dans les plateformes numériques.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.