El artículo 5 (Capítulo II) del Reglamento (UE) 2024/1689 de Inteligencia Artificial establece las prácticas de IA prohibidas. Se trata de un número muy limitado de casos, ocho en concreto, que afectan especialmente a la intimidad y dignidad de las personas y que se consideran riesgos inaceptables en el ámbito de la Unión Europea.
Dichas prácticas prohibidas están en vigor desde el 2 de febrero de 2025 y son las siguientes:
1. El uso de técnicas subliminales o deliberadamente manipuladoras o engañosas, causando o pudiendo causar un daño significativo. | ||
![]() |
Ejemplo: El uso de un sistema de IA para imitar otra persona con el objetivo de engañar y distorsionar el comportamiento de las personas, afectando así su capacidad para tomar decisiones informadas, de forma que causen o razonablemente puedan causar un daño significativo. |
|
2. La explotación de vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento de una persona o grupo, de manera que cause o pueda causar un daño significativo. | ||
![]() |
Ejemplo: Un sistema de IA que se aprovecha de las vulnerabilidades de las personas mayores para defraudarles o influir en sus decisiones, lo que puede empeorar su salud mental y causarles graves daños psicológicos. |
|
3. La evaluación o clasificación de personas o grupos basándose en sus comportamientos sociales o rasgos personales, que conduzca a un trato perjudicial o desfavorable o que sea injustificado o desproporcionado. | ||
![]() |
Ejemplo: Una agencia de bienestar social utiliza un sistema de IA para estimar la probabilidad de fraude mediante la combinación de modelos predictivos con datos de comportamiento no relacionados con el propósito de la evaluación, como el estado civil y los datos de salud, y que conduzca a un trato perjudicial o desproporcionado hacia esa persona o grupos de personas. | |
4. La evaluación o predicción del riesgo de que una persona cometa un delito, basándose únicamente en la creación de perfiles o rasgos de personalidad, con excepciones legales. | ||
![]() |
Ejemplo: Una autoridad policial utiliza un sistema de IA para predecir el comportamiento delictivo de delitos como el terrorismo basándose únicamente en la edad, la nacionalidad, la dirección, el tipo de coche y el estado civil de los individuos. | |
5. La creación o expansión de bases de datos de reconocimiento facial mediante la extracción indiscriminada de Internet o de grabaciones de circuitos cerrados de televisión (sistemas de videovigilancia). | ||
![]() |
Ejemplo: Sistemas de IA que crean o expanden bases de datos de reconocimiento facial mediante la extracción indiscriminada de imágenes faciales de Internet o de grabaciones de circuitos cerrados de televisión. | |
6. La inferencia de emociones de una persona en el lugar de trabajo o centro educativo, excepto por razones médicas o de seguridad. | ||
![]() |
Ejemplo: Una empresa utiliza sistemas de reconocimiento de emociones para evaluar el rendimiento de los empleados o para tomar decisiones sobre ascensos. | |
7. La clasificación biométrica de las personas para inferir datos sensibles tales como la raza, las opiniones políticas, la religión, la orientación sexual, etc. | ||
![]() |
Ejemplo: Un sistema de IA que categoriza a las personas activas en una plataforma de medios sociales según su supuesta orientación sexual analizando los datos biométricos de las fotos compartidas en esa plataforma y, sobre esa base, sirve a esas personas anuncios. | |
8. La identificación biométrica remota en tiempo real en espacios públicos y de forma masiva, salvo excepciones para garantizar el cumplimiento del Derecho. | ||
![]() |
Ejemplo: Un organismo policial instala cámaras preparadas para la biometría en múltiples lugares, incluyendo lugares de culto, varios lugares frecuentados por la comunidad LGBT+, consultorios médicos, farmacias y varios restaurantes y bares. |
El objetivo final de todas estas medidas es garantizar un elevado nivel de protección de los ciudadanos, de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea; al mismo tiempo que se minimizan los efectos perjudiciales de la IA.
En nuestra sección de Actualidad podrás encontrar información sobre los eventos, charlas y conferencias más relevantes en el ámbito de la inteligencia artificial.
Recursos útiles para la alfabetización en IA
El artículo 4 del Reglamento europeo de inteligencia artificial exige...
El Reglamento Europeo de Inteligencia Artificial: Sistemas de alto riesgo
Usamos cookies de terceros con fines analíticos, en resumen solo usamos las cookies de Google Analytics para poder analizar nuestro tráfico.