La UE impone regulaciones de IA para prohibir sistemas de alto riesgo

Editado por: Veronika Nazarova

Desde el 2 de febrero de 2025, la Unión Europea ha implementado regulaciones que prohíben sistemas de IA considerados "de riesgo inaceptable". Esto es parte del marco regulatorio integral de la UE sobre IA, conocido como la Ley de IA de la UE, que entró en vigor el 1 de agosto de 2024.

La ley clasifica las aplicaciones de IA en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable. Los sistemas de riesgo mínimo, como los filtros de spam de correo electrónico, no están sujetos a supervisión, mientras que las aplicaciones de riesgo inaceptable, como aquellas utilizadas para la puntuación social o la manipulación de decisiones, están completamente prohibidas.

Las empresas que utilicen estas aplicaciones de IA prohibidas podrían enfrentar multas de hasta 35 millones de euros (aproximadamente 36 millones de dólares) o el 7% de sus ingresos anuales, lo que sea mayor. Sin embargo, la aplicación de estas multas comenzará después de un período de transición.

Más de 100 empresas, incluidas Amazon y Google, firmaron el Pacto de IA de la UE en septiembre de 2024, comprometiéndose a adherirse a los principios de la Ley de IA. Sin embargo, Meta y Apple no firmaron este pacto y deben cumplir con las regulaciones.

La Comisión Europea planea publicar más directrices a principios de 2025 para facilitar la implementación de la ley, tras consultas con las partes interesadas.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.