Los responsables de los grupos de trabajo encargados de desarrollar el Código de Buenas Prácticas sobre la transparencia de los contenidos generados por inteligencia artificial han hecho público el primer borrador de este documento fundamental, un texto elaborado tras un proceso de consulta que dio comienzo en noviembre de este mismo año 2025 y que ha incluido la síntesis de casi doscientas propuestas por escrito y diversos talleres con la industria y la sociedad civil.
Dicho código busca establecer los cimientos para el cumplimiento de la Ley de IA de la Unión Europea, con el objetivo principal de facilitar la aplicación práctica del artículo 50 del Reglamento europeo de IA, el cual, a su vez, busca garantizar que los contenidos sintéticos sean marcados de forma legible por máquinas y detectables, así como facilitar que las personas físicas puedan identificar los deepfakes y los textos generados artificialmente sobre temas de interés público.
El documento se estructura en torno a dos grandes áreas de responsabilidad que afectan a distintos actores de la cadena de valor tecnológica, dirigiéndose la primera a los proveedores de sistemas de IA, estableciendo las reglas para el marcado técnico y la detección.
En el borrador se reconoce que, en el estado actual de la técnica, no existe una única solución de marcado que sea suficiente por sí sola para cumplir con los requisitos legales de eficacia, interoperabilidad, robustez y fiabilidad y, por ello, el código propone la implementación de un enfoque de múltiples capas que combine distintas técnicas para asegurar la trazabilidad del contenido.
Entre las medidas técnicas que deberán adoptar los proveedores se encuentra la inclusión de metadatos firmados digitalmente que informen sobre la procedencia y el tipo de operación realizada por la IA, además de marcas de agua imperceptibles entrelazadas directamente en el contenido, diseñadas para resistir las manipulaciones habituales y ser difíciles de separar del archivo original.
Para aquellos casos en los que estas técnicas no sean suficientes, el borrador contempla el uso de huellas digitales (fingerprinting) o registros de actividad (logging) y, así mismo, se establecen directrices específicas para los modelos de pesos abiertos (open-weight), que deberán incorporar marcas estructurales en sus pesos durante el entrenamiento para facilitar el cumplimiento normativo de terceros.
Junto a las obligaciones de marcado, el borrador estipula que los proveedores deberán ofrecer interfaces gratuitas o detectores públicos que permitan verificar si un contenido ha sido generado o manipulado por sus sistemas. Estas herramientas deberán proporcionar puntuaciones de confianza y, en la medida de lo posible, explicaciones comprensibles para el usuario humano sobre la evidencia de la detección.
El texto hace hincapié en que estas soluciones deben ser interoperables y anima a la colaboración entre fabricantes para la creación de verificadores agregados compartidos.
En la segunda gran sección del documento se abordan las obligaciones de los responsables del despliegue de soluciones de IA, centrándose en el etiquetado visible de los contenidos. Para unificar la identificación de estos materiales en el mercado único, se propone el uso de una taxonomía común que distinga entre contenido totalmente generado por IA y contenido asistido por IA. Dicha distinción es crucial para informar al público sobre el grado de intervención de la IA en la creación del contenido, diferenciando entre la creación autónoma y aquellas modificaciones que afectan al significado o tono de una obra original.
Para hacer efectiva esta transparencia de cara al usuario final, el borrador aboga por la implementación de un icono común, sugiriendo como solución provisional el uso de las siglas «AI», «IA» o «KI», dependiendo del idioma del Estado miembro. Este indicador visual deberá colocarse de manera fija, clara y distinguible en el momento de la primera exposición al contenido.
La ambición de la UE a largo plazo consiste en desarrollar un icono interactivo a nivel europeo que permita al usuario obtener más detalles sobre qué elementos específicos han sido manipulados al interactuar con él.
El documento detalla cómo debe aplicarse este etiquetado en distintos formatos multimedia. Así, en el caso del vídeo, se contempla la inserción de descargos de responsabilidad al inicio o la presencia del icono durante la reproducción.
Para los contenidos de audio, especialmente aquellos sin soporte visual como la radio o los podcasts, se requerirán advertencias sonoras al principio, en fases intermedias y al final de la transmisión, salvo en formatos muy breves donde bastará con una aviso inicial.
No obstante, la propuesta de código contempla excepciones y matices importantes para no coartar la libertad creativa. Cuando el contenido forme parte de una obra evidentemente artística, creativa, satírica o de ficción, las obligaciones de transparencia se aplicarán de manera proporcionada para no obstaculizar el disfrute de la obra, limitándose a revelar la existencia de dicha generación artificial de una forma no intrusiva, como en los créditos o mediante una aparición breve del indicador.
El texto también subraya la importancia de la accesibilidad, exigiendo que tanto los iconos como las etiquetas sean perceptibles y comprensibles para personas con discapacidad, mediante el uso de alto contraste, descripciones de audio y compatibilidad con lectores de pantalla.
Finalmente, se establecen mecanismos para que los usuarios puedan reportar contenidos mal etiquetados, obligando a los responsables a corregir los errores sin demora indebida.
Los interesados tienen hasta el 23 de enero de 2026 para enviar sus comentarios y propuestas de mejora, con el fin de refinar este borrador antes de su aprobación definitiva.



