La Commissione Europea ha avviato una consultazione pubblica sulle nuove normative per i sistemi di intelligenza artificiale (IA) ad alto rischio.
La consultazione, aperta fino al 18 luglio, mira a raccogliere contributi da vari stakeholder, tra cui la società civile, le industrie tecnologiche, gli sviluppatori di IA, i ricercatori e le autorità.
L'AI Act dell'UE, che mira a regolamentare i rischi dell'IA, è stato finalizzato lo scorso anno, con la maggior parte delle disposizioni che entreranno in vigore ad agosto. I sistemi ad alto rischio dovranno affrontare requisiti rigorosi, come set di dati di alta qualità, registrazione delle attività, documentazione dettagliata, informazioni chiare per l'utente, supervisione umana e solida sicurezza informatica.
Esempi di sistemi di IA ad alto rischio includono quelli utilizzati nei processi di assunzione o nelle richieste di prestito. La Commissione deve presentare delle linee guida entro il 2 febbraio 2026, specificando l'applicazione pratica degli obblighi ed esempi di sistemi di IA ad alto e non alto rischio.
La nuova legislazione consente o vieta l'uso dell'IA in base al rischio che essa pone. È già entrata in vigore, con un'implementazione graduale prevista, potenzialmente pienamente attuata entro il 2027.
Da febbraio, i sistemi di identificazione biometrica e quelli che valutano gli individui in base al comportamento sono vietati. La Commissione sta inoltre preparando la quarta versione delle linee guida per i modelli di IA generativa, mirando a un'implementazione tempestiva.