El 2 de febrero de 2025, la Unión Europea dio a conocer las primeras prohibiciones en el marco de la Ley de Inteligencia Artificial (IA), marcando un hito en la regulación de esta tecnología. El rápido avance de la IA ha generado preocupaciones sobre posibles abusos y la vulneración de derechos fundamentales, por lo que se ha hecho necesario establecer un marco normativo que garantice un desarrollo ético y seguro. La Ley de Inteligencia Artificial (AI Act), que entró en vigor en agosto de 2024, establece las bases legales para la utilización responsable de la IA, mientras que las recientes Directrices sobre Prácticas Prohibidas de IA, difundidas por la Comisión Europea, clarifican qué aplicaciones están expresamente vetadas en el territorio comunitario.
Estas directrices tienen como objetivo principal interpretar y aplicar correctamente el Artículo 5 del AI Act, el cual enumera aquellas prácticas consideradas inaceptables por atentar contra derechos esenciales como la dignidad humana, la privacidad y el principio de no discriminación. Para facilitar el cumplimiento normativo, se incluyen ejemplos concretos que orientan tanto a las autoridades nacionales como a las empresas tecnológicas en la implementación de las disposiciones legales.
Entre las prácticas prohibidas destacan aquellas relacionadas con la manipulación y el engaño, mediante el uso de técnicas subliminales o manipuladoras que puedan alterar de forma significativa el comportamiento de las personas y causarles perjuicios. Asimismo, se prohíbe la explotación de vulnerabilidades en sujetos especialmente vulnerables, como niños o personas en situación de exclusión social, evitando que se utilicen sus debilidades para fines no éticos. También se veta el uso de sistemas de IA para la puntuación social, es decir, la evaluación del comportamiento social de los individuos que podría derivar en consecuencias negativas desproporcionadas en su vida cotidiana.
Otras prácticas prohibidas incluyen la predicción de delitos basada en el perfilado, en la que se evalúa el riesgo criminal de una persona únicamente por sus características personales sin pruebas objetivas; la creación de bases de datos de reconocimiento facial a través del “scraping” de imágenes sin consentimiento; el uso de IA para el reconocimiento de emociones en entornos laborales o educativos, salvo en situaciones justificadas; y la clasificación biométrica que utiliza datos sensibles, así como la identificación biométrica en tiempo real en espacios públicos, salvo excepciones puntuales como la búsqueda de personas desaparecidas o la prevención de amenazas terroristas.
La normativa prevé excepciones limitadas para casos de seguridad pública con la debida supervisión judicial y establece un calendario de implementación gradual. Aunque la ley entró en vigor en 2024, la aplicación total de las restricciones se consolidará a partir de agosto de 2026, con diferentes etapas de entrada en vigor que permitirán a empresas y administraciones adaptarse sin frenar la innovación tecnológica.
ARTÍCULO COMPLETO DE PYME LEGAL