El Parlamento Europeo acaba de ratificar la ley de inteligencia artificial que la Eurocámara aprobó a finales del año pasado con 523 votos a favor, 46 en contra y 49 abstenciones.
Si bien es un gran avance en materia legislativa, aún resta que la Unión Europea la apruebe definitivamente en las próximas semanas, mientras que la implementación de la ley entraría en vigor recién en el año 2026.
En resumen, la normativa introduce definiciones legales de «sistemas de IA» , establece una estructura de gobernanza y mecanismos de aplicación y recurso, y describe el proceso legislativo. Además, destaca los debates políticos y académicos en torno a la regulación de la IA, incluidas las preocupaciones sobre los derechos fundamentales, la seguridad, la transparencia y la responsabilidad.
El objetivo de la UE es sentar precedente que sirva como ejemplo para otros países, como Estados Unidos o China en materia de control.
Estos son los principales puntos del documento aprobado para regular la IA en la UE:
Definición de Sistemas de IA: establece una definición legal de sistemas de IA, alineada con la definición revisada por la OCDE, excluyendo sistemas de software simples y tradicionales, y definiendo los modelos de inteligencia artificial de propósito general (GPAI) con «capacidades de alto impacto» que podrían representar un riesgo sistémico.
Enfoque Basado en el Riesgo: clasifica los sistemas de IA en varias categorías según el nivel de riesgo que presentan, desde prácticas prohibidas hasta sistemas de alto riesgo y aquellos con riesgos mínimos.
Prácticas Prohibidas: prohíbe ciertas prácticas de IA consideradas de riesgo inaceptable, incluyendo sistemas que manipulan comportamientos de manera subliminal, explotan vulnerabilidades de grupos específicos, o realizan identificación biométrica remota en tiempo real en espacios públicos para fines de aplicación de la ley, excepto en circunstancias limitadas (ampliamos más abajo).
Sistemas de Alto Riesgo: identifica casos de uso en los que los sistemas de IA se consideran de alto riesgo, exigiendo a los proveedores cumplir con requisitos de evaluación de conformidad antes de su comercialización en la UE, y establece obligaciones específicas para sistemas de GPAI (Global Partnership on Artificial Intelligence o Alianza Global sobre Inteligencia Artificial), incluyendo requisitos de transparencia y protección de derechos de autor.
Apoyo a la Innovación: fomenta la inversión en sistemas de IA mediante la creación de «arenas regulatorias» para el desarrollo y pruebas de sistemas innovadores de IA bajo supervisión regulatoria, y establece medidas para facilitar el desarrollo y la comercialización de sistemas de alto riesgo.
Aplicación y Estructura Institucional: asigna responsabilidades a las autoridades nacionales y de la UE para asegurar la aplicación e implementación del acta, estableciendo sanciones significativas por incumplimiento.