Meta, la société mère de Facebook, a présenté un nouveau cadre politique visant à gérer les risques associés aux systèmes d'intelligence artificielle (IA) avancés. Le cadre Frontier AI classe les systèmes d'IA en deux niveaux de risque : « risque élevé » et « risque critique ». Les systèmes à risque élevé, qui comprennent les modèles d'IA qui pourraient faciliter les cyberattaques ou contribuer aux menaces chimiques et biologiques, seront soumis à un accès restreint et à des mesures de sécurité avant leur publication. Les systèmes à risque critique, qui pourraient entraîner des conséquences dévastatrices et incontrôlables s'ils sont utilisés à mauvais escient, seront interrompus dans leur développement jusqu'à ce que des mesures de sécurité suffisantes soient en place.
L'approche de Meta pour évaluer le risque de l'IA repose sur des évaluations d'experts de chercheurs internes et externes, plutôt que sur des tests empiriques standardisés. La société reconnaît que le domaine de la sécurité de l'IA manque de méthodes scientifiques « suffisamment robustes » pour établir des mesures de risque précises.
La publication du cadre Frontier AI semble être une décision stratégique en réponse aux préoccupations croissantes concernant la philosophie de développement de l'IA ouverte de Meta. Alors que Meta a adopté une approche plus ouverte du développement de l'IA, elle a également été critiquée pour son manque de mesures de sécurité solides, ce qui a suscité des inquiétudes quant à une utilisation abusive potentielle de ses modèles d'IA.
Le document politique de Meta souligne l'importance de trouver un équilibre entre l'innovation et la sécurité. La société déclare : « Nous pensons qu'en tenant compte à la fois des avantages et des risques lors de la prise de décisions sur la manière de développer et de déployer l'IA avancée, il est possible de fournir cette technologie à la société d'une manière qui préserve les avantages de cette technologie pour la société tout en maintenant un niveau de risque approprié. »