El pasado 2 de febrero de 2025, la Unión Europea publicó las primeras prohibiciones de la Ley de Inteligencia Artificial (IA).
El avance de la inteligencia artificial (IA) ha llevado a la necesidad de regular su uso para evitar abusos y proteger los derechos fundamentales.
La Ley de Inteligencia Artificial de la Unión Europea (AI Act), que entró en vigor en agosto de 2024, establece un marco normativo para garantizar un desarrollo ético y seguro de la IA. Recientemente, la Comisión Europea ha publicado las Directrices sobre Prácticas Prohibidas de IA, que detallan qué tipos de aplicaciones están expresamente prohibidas dentro del territorio de la UE.
¿Cuál es el objetivo de estas directrices?
Las nuevas directrices buscan aclarar la interpretación y aplicación del Artículo 5 del AI Act, que enumera prácticas prohibidas por considerar que vulneran derechos fundamentales como la dignidad humana, la privacidad y la no discriminación.
Además, las directrices proporcionan ejemplos concretos para que las autoridades nacionales y las empresas tecnológicas puedan garantizar el cumplimiento de la normativa.
Principales prácticas prohibidas en IA
Según las directrices, las siguientes prácticas de IA están prohibidas dentro de la Unión Europea:
- Manipulación y engaño – Art. 5(1)(a)
Se prohíben los sistemas de IA que utilizan técnicas subliminales o manipulativas que puedan distorsionar el comportamiento de las personas de manera significativa y causar daños.
Ejemplo: algoritmos que inducen decisiones perjudiciales sin que el usuario sea consciente.
- Explotación de vulnerabilidades – Art. 5(1)(b)
Cualquier IA que aproveche vulnerabilidades de personas en situación de desventaja, como niños, personas con discapacidad o en riesgo de exclusión social, está prohibida.
Ejemplo: chatbots que explotan la ingenuidad infantil para obtener información personal.
- Puntuación social (Social Scoring) – Art. 5(1)(c)
Está prohibido el uso de IA para evaluar a las personas en función de su comportamiento social, generando consecuencias negativas desproporcionadas en su vida cotidiana.
Ejemplo: sistemas de IA que otorgan privilegios o restricciones según el comportamiento en redes sociales.
- Predicción de delitos basada en perfilado – Art. 5(1)(d)
No se permite el uso de IA para evaluar el riesgo de que una persona cometa un delito basado exclusivamente en su perfil o características personales sin pruebas objetivas.
Ejemplo: algoritmos que predicen criminalidad basándose en rasgos físicos o datos personales sin contexto.
- Creación de bases de datos de reconocimiento facial mediante «scraping» – Art. 5(1)(e)
Se prohíbe la recopilación masiva y no autorizada de imágenes de internet o cámaras de vigilancia para desarrollar sistemas de reconocimiento facial sin el consentimiento de las personas.
- Reconocimiento de emociones en el lugar de trabajo o en escuelas – Art. 5(1)(f)
Los sistemas de IA que detectan emociones en empleados o estudiantes están prohibidos, salvo en situaciones médicas o de seguridad justificadas.
Ejemplo: software que mide el estado emocional de los trabajadores para evaluar su desempeño.
- Clasificación biométrica basada en datos sensibles – Art. 5(1)(g)
Se prohíbe la categorización de personas en base a datos biométricos que revelen información sobre su raza, opinión política, religión, orientación sexual, etc.
- Identificación biométrica en tiempo real en espacios públicos – Art. 5(1)(h)
No se permite el uso de IA para vigilancia masiva con reconocimiento facial en tiempo real, salvo excepciones muy concretas como la búsqueda de personas desaparecidas o amenazas de terrorismo.
Excepciones y control del cumplimiento
Aunque estas prácticas están prohibidas, existen excepciones limitadas en situaciones específicas donde sea necesario para la seguridad pública y con la debida supervisión judicial.
Además, las autoridades nacionales serán responsables de hacer cumplir estas normas y podrán imponer sanciones en caso de incumplimiento.
Próximos pasos en esta Ley
Aunque la Ley de la IA entró en vigor el 1 de agosto de 2024, su aplicación total con todas las restricciones no será efectiva hasta el 2 de agosto de 2026. Sin embargo, hay excepciones en el calendario de implementación:
- Desde el 2 de febrero de 2025, ya están en vigor las prohibiciones y las obligaciones de alfabetización en materia de IA.
- El 2 de agosto de 2025, comenzarán a aplicarse las normas de gobernanza y las obligaciones para los modelos de IA de uso general, como ChatGPT, que están entrenados con grandes volúmenes de datos y pueden realizar diversas tareas.
- En agosto de 2026, entrará en vigor la normativa para las Administraciones Públicas, mientras que sus proveedores tendrán hasta 2030 para adaptarse.
- Hasta el 2 de agosto de 2027, habrá un período de transición ampliado para los sistemas de IA que puedan representar riesgos graves para la salud, la seguridad o los derechos fundamentales.
Estas medidas buscan garantizar una implementación gradual y efectiva de la regulación, permitiendo a las empresas y administraciones adaptarse a los nuevos requerimientos sin comprometer la innovación tecnológica.
Con esta normativa, la Unión Europea pretende liderar un enfoque ético y responsable de la inteligencia artificial, asegurando que su desarrollo y aplicación respeten los derechos fundamentales de las personas.
El equipo de PymeLegal