HomeNoticias ITCódigo de conducta UE para etiquetar contenido de IA.

Código de conducta UE para etiquetar contenido de IA.

La Comisión Europea publica el primer borrador del código de conducta para marcado y etiquetado de contenido de IA generada, previsto para cerrarse en junio de 2026.

La UE avanza hacia un estándar común para identificar contenido generado por IA

La Comisión Europea ha iniciado el camino hacia la estandarización del marcado y la identificación del contenido creado mediante inteligencia artificial con la publicación del primer borrador del Código de Conducta sobre marcado y etiquetado de contenido generado por IA. El proceso cuenta con un calendario claro: el texto definitivo está previsto para junio de 2026 y las obligaciones legales de transparencia comenzarán a aplicarse el 2 de agosto de ese mismo año.

Este Código de Conducta se concibe como un complemento operativo del Reglamento de IA, en particular de su artículo 50, que introduce exigencias específicas de transparencia tanto para los proveedores como para los usuarios de sistemas generativos. De acuerdo con este artículo, los proveedores deberán identificar el contenido generado o alterado por IA mediante formatos legibles por máquina, mientras que los usuarios que empleen estas tecnologías en entornos profesionales estarán obligados a señalar de forma clara los deepfakes y los textos creados por IA cuando aborden temas de interés público.

Desde el punto de vista empresarial, el aspecto clave es que el Código se define como voluntario, aunque en la práctica actuará como un marco de referencia técnico y organizativo para demostrar cumplimiento en el futuro. La Comisión ha delegado su elaboración en un grupo de expertos independientes y se limita a coordinar el proceso, consciente de que el sector necesita tiempo para converger en estándares comunes antes de que las obligaciones sean plenamente exigibles.

El borrador se organiza en dos grandes bloques. El primero aborda el marcado técnico y la detección del contenido generado por IA, y está dirigido principalmente a los proveedores de modelos y plataformas generativas. El segundo se centra en quienes utilizan estos sistemas, estableciendo pautas para el etiquetado de deepfakes y de ciertos contenidos textuales generados o manipulados por IA en contextos sensibles desde el punto de vista del interés público.

En el caso de los proveedores, el mensaje es claro: el marcado del contenido sintético deberá integrarse en el diseño mismo de los sistemas. El artículo 50 del Reglamento de IA ya establece que el contenido debe ser identificable de forma automática, lo que remite a soluciones como metadatos incrustados, marcas digitales persistentes o técnicas de watermarking resistentes. Aunque el Código no tiene fuerza normativa, sirve como banco de pruebas para evaluar la viabilidad de estas aproximaciones.

Este planteamiento pone de manifiesto una tensión técnica evidente. El marcado debe ser lo bastante robusto como para sobrevivir a ediciones, conversiones y redistribuciones, pero al mismo tiempo no puede degradar la calidad del contenido ni afectar al rendimiento de los sistemas. Para las grandes plataformas de generación de texto, imagen, audio o vídeo, el desafío no será solo tecnológico, sino también organizativo, ya que deberán alinear sus soluciones con estándares sectoriales y, previsiblemente, con marcos regulatorios de otras regiones.

El segundo bloque del Código se dirige a los desplegadores de sistemas de IA generativa, es decir, empresas, medios, administraciones u organizaciones que utilizan estas herramientas en su actividad diaria. A diferencia de los proveedores, que deben garantizar el marcado en origen, estos actores asumirán la responsabilidad de informar de forma clara y visible cuando utilicen deepfakes o contenidos generados por IA en ámbitos donde la fiabilidad y la confianza pública resultan críticas.

La noción de “asuntos de interés público”, tal como aparece en el Reglamento de IA, es intencionadamente amplia. Abarca, previsiblemente, comunicaciones políticas, informativas, institucionales y comerciales con impacto en la opinión pública o en la toma de decisiones colectivas. Para las organizaciones afectadas, esto anticipa la necesidad de establecer protocolos internos de etiquetado, avisos contextuales y, en algunos casos, sistemas de trazabilidad del contenido generado por IA.

Aunque el Código sea voluntario, su desarrollo sigue un calendario muy concreto. La Comisión recogerá observaciones sobre este primer borrador hasta el 23 de enero de 2026 entre los participantes y observadores del proceso. A partir de esas aportaciones se elaborará una segunda versión a mediados de marzo de 2026 y, salvo cambios significativos, el texto final quedará cerrado en junio.

Este margen temporal no es accidental. Las obligaciones de transparencia previstas en el Reglamento de IA comenzarán a aplicarse el 2 de agosto de 2026, por lo que el Código se configura como un instrumento de transición. Permitirá a empresas y organizaciones ensayar soluciones técnicas, adaptar procesos internos y definir políticas antes de que la supervisión regulatoria sea plenamente vinculante.

Para el ecosistema tecnológico europeo —incluidas las empresas con sede o actividad en España— este marco plantea cuestiones muy concretas: cómo implementar el marcado legible por máquina en cadenas de valor complejas con múltiples proveedores; qué grado de responsabilidad corresponde a integradores, revendedores o desarrolladores que personalizan modelos base; y hasta qué punto los estándares europeos convergerán con los que se están definiendo en Estados Unidos y en foros internacionales.

En el ámbito de los deepfakes, el impacto potencial es inmediato para plataformas de contenido, medios de comunicación y empresas de marketing digital. El borrador subraya la obligación de etiquetar de forma clara y visible las piezas generadas o manipuladas por IA, lo que obligará a revisar flujos de publicación, relaciones contractuales con proveedores de contenido y, posiblemente, sistemas de moderación automatizada. El énfasis ya no está solo en reducir riesgos reputacionales, sino en estructurar la transparencia como principio operativo.

La mención explícita a la detección de contenido de IA en el primer bloque del Código introduce además una línea de trabajo adicional: el desarrollo de tecnologías capaces de identificar con un grado razonable de fiabilidad si un contenido es de origen sintético. Este punto conecta con un debate técnico complejo, ya que la detección se vuelve más difícil a medida que los modelos mejoran y los intentos de evasión se sofisticán, y todavía no está claro qué niveles de precisión serán aceptables desde el punto de vista regulatorio.

Para organizaciones que operan en sectores especialmente regulados —como finanzas, sanidad o infraestructuras críticas— el Código puede convertirse en una referencia útil para auditorías internas y evaluaciones de impacto. Aunque no tenga el mismo peso jurídico que el Reglamento de IA, sí funcionará como indicador de diligencia debida. Adoptar sus recomendaciones de forma temprana puede facilitar la justificación del cumplimiento cuando las obligaciones sean exigibles.

El carácter voluntario del Código también abre dinámicas de posicionamiento en el mercado. Grandes plataformas y proveedores de IA pueden adherirse desde el inicio para mostrar alineamiento con el regulador e influir en la definición de estándares técnicos. Para empresas más pequeñas, en cambio, estas exigencias pueden suponer un coste relevante si no se consolidan herramientas compartidas o servicios de marcado y etiquetado integrados en las propias plataformas.

El calendario fijado por la Comisión deja poco espacio para la pasividad. En poco más de un año y medio, los actores que desarrollen o utilicen sistemas de IA generativa a escala deberán ser capaces de explicar cómo identifican, etiquetan y comunican el uso de estas tecnologías cuando generan o manipulan contenido. No será solo una cuestión técnica, sino un replanteamiento de la cadena de confianza que sostiene la información digital.

Mientras tanto, el debate sobre qué se considera exactamente “interés público” y sobre los límites del etiquetado técnico y visual seguirá abierto. Empresas, reguladores y sociedad civil deberán ajustar expectativas y soluciones prácticas. Tal y como está planteado, el Código de Conducta funcionará como un laboratorio normativo, previo a la plena aplicación del Reglamento de IA, en el que se pondrá a prueba si el marcado y el etiquetado del contenido generado por IA pueden consolidarse como una capa estable de la infraestructura informativa europea.

RELATED ARTICLES

Most Popular

Recent Comments