Financiado por la Unión Europea
Recursos compartidos

El artículo 50

El artículo 50 del Reglamento europeo de inteligencia artificial establece obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA.

 

 

  • ¿Qué implica el artículo 50 de la Ley de IA? ¿Cómo protegen estas obligaciones a las personas contra la manipulación, el engaño y otros riesgos identificados por la Ley de IA?

 
  • La transparencia en relación con el origen artificial de los contenidos generados o manipulados por IA es esencial. La disponibilidad de una variedad de sistemas de IA con capacidades crecientes para generar todo tipo de contenido hace que sea cada vez más difícil distinguir el contenido de IA del contenido generado por humanos y auténtico. Esto está planteando nuevos riesgos de desinformación y manipulación a escala, fraude, suplantación de identidad y engaño del consumidor.
  • En este contexto, el artículo 50 de la Ley de IA establece obligaciones de transparencia para los proveedores y los implementadores de determinados sistemas de IA, incluidos los sistemas de IA generativos e interactivos y las falsificaciones profundas.
  • Estas obligaciones tienen por objeto reducir los riesgos de engaño, suplantación de identidad e información errónea y fomentar la confianza y la integridad en el ecosistema de la información. Las personas sabrán cuándo están interactuando con IA o expuestos a contenido generado por IA, lo que les ayudará a tomar decisiones informadas.

 

  • ¿En qué casos y para qué tipos de sistemas de IA se aplican estas obligaciones de transparencia?

 
  • El artículo 50 de la Ley de IA abarca cuatro tipos de sistemas de IA. En primer lugar, los proveedores de sistemas de IA que interactúan con personas deben informarles de que están interactuando con un sistema de IA y no con un ser humano, a menos que esto sea obvio.
  • En segundo lugar, los proveedores de contenidos generados o manipulados por IA deben facilitar la identificación y marcar dichos contenidos de manera legible por máquina y habilitar los mecanismos de detección correspondientes.  
  • En tercer lugar, los implementadores de sistemas de reconocimiento de emociones o de categorización biométrica deben garantizar que las personas expuestas a estos sistemas estén informadas.
  • En cuarto lugar, los responsables del despliegue de sistemas de IA que generen o manipulen contenidos falsos profundos o publicaciones de texto generadas o manipuladas por IA destinadas a informar al público sobre asuntos de interés público deben informar a los usuarios sobre el origen artificial del contenido, excepto en casos definidos. Por último, la información facilitada debe estar en un formato claro y accesible.

 

  • ¿Qué soluciones técnicas se consideran para marcar y detectar contenido generado por IA?

 
  • Las técnicas o métodos para marcar y detectar el contenido generado por IA incluyen marcas de agua, identificaciones de metadatos y métodos criptográficos para demostrar el origen y la autenticidad del contenido, métodos de registro, impresiones dactilares u otras técnicas.
  • Las técnicas y métodos pertinentes deben ser suficientemente fiables, interoperables, eficaces y sólidos en la medida en que sea técnicamente viable. Los proveedores también deben tener en cuenta las especificidades y las limitaciones de los diferentes tipos de contenidos y la evolución tecnológica y del mercado pertinente en este ámbito.
  • Una parte importante del trabajo que debe realizarse en el contexto del Código de buenas prácticas sobre sistemas de IA generativos transparentes será seguir identificando las técnicas y prácticas más avanzadas.

 

  • ¿Por qué es necesario un código de buenas prácticas sobre sistemas de IA generativos transparentes?

  El Código de buenas prácticas sobre sistemas de IA generativa transparentes será una herramienta voluntaria para garantizar el adecuado cumplimiento de las obligaciones establecidas en el artículo 50, apartados 2 y 4, de la Ley de IA para los proveedores y los implementadores de sistemas de IA generativa. Si la Comisión lo aprueba como adecuado, proporcionará medidas claras para los responsables del despliegue y los proveedores que desarrollen o tengan previsto desarrollar sistemas de IA generativa en el ámbito de aplicación. El Código garantizará que los sistemas de IA generativa introducidos en el mercado europeo por proveedores e implementadores adherentes sean suficientemente transparentes, en consonancia con los respectivos requisitos de transparencia de la Ley de IA.

 

  • ¿Por qué se necesitan tanto directrices como un código de buenas prácticas sobre sistemas de IA transparentes?

 
  • Las medidas prácticas del Código de buenas prácticas solo cubrirán las obligaciones establecidas en el artículo 50, apartados 2 y 4, de la Ley de IA. Las directrices abarcarán el artículo 50 en su conjunto.
  • Además, el Código de Prácticas se desarrollará a través de un proceso de múltiples partes interesadas y proporcionará medios técnicos de implementación.
  • Las directrices que elaborará y adoptará la Comisión aclararán el ámbito de aplicación, las definiciones jurídicas pertinentes, las obligaciones de transparencia, las excepciones y las cuestiones horizontales conexas. 

 

  • ¿Qué papel desempeñarán la sociedad civil, el mundo académico, las pymes, los implementadores y los proveedores en la elaboración del Código?

 
  • Los principales destinatarios del Código son los proveedores y los implementadores de sistemas de IA generativa, incluidas las pymes, sujetos a las obligaciones. Se invita a los proveedores de técnicas de transparencia, las organizaciones de la sociedad civil, los expertos académicos y otras organizaciones o asociaciones industriales pertinentes a que apoyen el proceso de redacción. Al implicar a todas estas partes interesadas, el Código de buenas prácticas facilitará la aplicación efectiva de las respectivas obligaciones de transparencia. El Código también apoyará disposiciones prácticas para hacer accesibles los mecanismos de detección y facilitar la cooperación con otros agentes a lo largo de la cadena de valor.
  • Se anima a las partes interesadas a que expresen su interés hasta el 28 de septiembre para participar en el proceso de redacción. La Oficina de IA verificará la admisibilidad sobre la base de la información presentada y disponible públicamente y confirmará la participación de las partes interesadas respectivas.

 

  • ¿Cómo interactúa el Código de buenas práticas sobre sistemas de IA transparentes de IA generativa con el reciente Código de buenas prácticas sobre IA de uso general?

 
  • Las obligaciones de transparencia del artículo 50 de la Ley de IA complementan las normas de transparencia aplicables a los modelos de IA de uso general (artículos 53 y 55). Estos últimos se han detallado con más detalle en el Código de buenas prácticas para los modelos de IA de uso general (GPAI) y en el modelo de la Comisión para el resumen del contenido utilizado para el modelo de formación.
  • En particular, mientras que el Código de buenas prácticas en materia de GPAI se centra en los modelos de GPAI y en la documentación y la información que deben facilitarse a la Oficina de IA, las autoridades nacionales competentes y los proveedores intermedios, así como en la transparencia de los datos de entrenamiento de entrada, el Código sobre sistemas de IA generativos transparentes aborda las técnicas de marcado y la transparencia de los resultados generados o manipulados por la IA hacia las personas expuestas a ellos.
  • El Código sobre sistemas transparentes de IA generativa se centra en las obligaciones de transparencia a nivel del sistema, incluidos, entre otros, los sistemas de GPAI. Las técnicas de transparencia que pueden aplicar los proveedores de modelos de GPAI para facilitar las obligaciones de transparencia de los proveedores de sistemas de IA descendentes también se tendrán en cuenta en el contexto del presente Código.

 

 

  • ¿Cuáles son los próximos pasos tras la puesta en marcha de la consulta pública y la convocatoria de manifestaciones de interés?

 
  • La Oficina de IA invitará a todas las partes interesadas elegibles a participar en el proceso de redacción del Código de buenas prácticas y seleccionará presidentes y vicepresidentes para los diferentes grupos de trabajo.
  • A principios de noviembre tendrá lugar una sesión plenaria de apertura con todos los participantes seleccionados. Se espera que el proceso de redacción dure hasta principios de junio de 2026 a más tardar.

 

 

  • ¿Cómo se evaluará el cumplimiento de la Ley de IA una vez finalizado el Código de Buenas Prácticas?

  Si el Código es aprobado por la Comisión, los signatarios podrán basarse en él para demostrar el cumplimiento de las obligaciones. Por lo que se refiere a los proveedores y los responsables del despliegue que se adhieran al Código, la Comisión centrará sus actividades de ejecución en supervisar su adhesión al Código. 
Se beneficiarán de una mayor confianza de la Comisión y de otras partes interesadas. 

 

 

Logo Comisión Europea

Actualidad


En nuestra sección de Actualidad podrás encontrar información sobre los eventos, charlas y conferencias más relevantes en el ámbito de la inteligencia artificial.

Copyright© 2025 AESIA - Todos los derechos reservados.

Usamos cookies de terceros con fines analíticos, en resumen solo usamos las cookies de Google Analytics para poder analizar nuestro tráfico.

Más información