Lancement de Meta AI au Brésil au milieu des préoccupations en matière de confidentialité

Meta AI, l'outil d'intelligence artificielle de Meta (propriétaire de WhatsApp, Facebook et Instagram), a été lancé au Brésil, suscitant curiosité et inquiétudes concernant la confidentialité des données des utilisateurs. Annoncé en septembre 2023, Meta AI vise à intégrer des fonctionnalités d'IA sur toutes les plateformes de Meta, fonctionnant de manière similaire à un chatbot comme ChatGPT.

Propulsé par le modèle de langage Llama 3.2 de Meta, Meta AI utilise un vaste ensemble de données comprenant des trillions de mots provenant de sources diverses, lui permettant de fournir des informations pertinentes et fiables. Cependant, sa dépendance à l'égard du contenu généré par les utilisateurs des plateformes de Meta pour l'entraînement a soulevé des interrogations concernant la conformité avec la Loi générale sur la protection des données (LGPD) au Brésil.

Après des restrictions initiales de l'Autorité nationale de protection des données (ANPD) concernant la collecte de données pour l'entraînement de l'IA, Meta a élaboré un plan de conformité qui a été approuvé en août 2024. Ce plan permet la collecte de données uniquement à partir des publications publiques des utilisateurs sur Facebook et Instagram, tandis que la situation pour WhatsApp est plus complexe en raison de son chiffrement de bout en bout.

Meta assure aux utilisateurs que l'IA ne peut pas lire les messages personnels dans WhatsApp, car elle ne traite que les messages qui mentionnent explicitement '@Meta AI'. Les données collectées pour l'entraînement se limitent aux interactions des utilisateurs avec l'IA et aux informations disponibles publiquement. Cependant, des préoccupations subsistent quant à la manière dont le consentement des utilisateurs est obtenu et si toutes ou certaines parties des conversations sont utilisées pour l'entraînement.

Malgré ces assurances, les utilisateurs ne peuvent pas retirer Meta AI de WhatsApp, soulevant d'autres questions de confidentialité. Les utilisateurs peuvent exercer leur droit de s'opposer à l'utilisation des données pour l'entraînement de l'IA via un formulaire fourni par Meta, mais l'IA reste intégrée à l'application, quelle que soit ce choix. Le débat en cours met en lumière la tension entre l'innovation en matière d'IA et l'impératif de la confidentialité des utilisateurs dans un monde de plus en plus numérique.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.