China ya es el primer país en imponer por ley el uso de marcas de agua y metadatos para identificar imágenes creadas con IA

Publicado el 03/09/2025 por Diario Tecnología
Artículo original

China ya es el primer país en imponer por ley el uso de marcas de agua y metadatos para identificar imágenes creadas con IA

Al comenzar este mes, las principales plataformas sociales chinas —como WeChat, Douyin o Weibo— comenzaron a aplicar una normativa pionera en el mundo: toda pieza de contenido generada por inteligencia artificial debe llevar una etiqueta clara que lo identifique como tal.

La medida responde al rápido auge de herramientas que han popularizado la creación de textos, imágenes, audios y vídeos sintéticos en cuestión de segundos... pero, ante todo, es la consecuencia de una imposición por ley, la primera de esa clase en todo el mundo.

El objetivo oficial: seguridad y transparencia

Pekín justifica la medida como parte de su reciente campaña "Qinglang" (que puede traducirse como, más o menos, "Claro y Brillante"), destinada a "limpiar" el ciberespacio y proteger a los ciudadanos de riesgos como:

  • Desinformación y noticias falsas.
  • Fraudes online.
  • Infracciones de copyright.
  • Deepfakes que amenazan la "seguridad individual y nacional".

En teoría, el etiquetado pretende devolver confianza a los usuarios y evitar que los contenidos sintéticos erosionen la credibilidad de la información.

¿Qué exige exactamente la ley?

El reglamento, impulsado por la Administración del Ciberespacio de China (CAC) junto con otros ministerios clave, obliga a que cada contenido sintético lleve dos tipos de identificadores:

  • Explícitos: visibles al usuario, como marcas de agua en imágenes, avisos en vídeos o textos aclaratorios al inicio o final de un documento.
  • Implícitos: invisibles para el ojo humano, insertados en los metadatos. Esto incluye marcas digitales que permiten a plataformas y algoritmos de rastreo diferenciar entre contenido humano y generado por IA.

Además, las plataformas tienen la responsabilidad de verificar estos metadatos y añadir advertencias incluso en casos sospechosos, aunque el creador no haya señalado el uso de IA.

Problemas y limitaciones de la medida

Aunque ambicioso, el sistema no está exento de desafíos:

  1. Fácil de evadir. Los cibecriminales pueden eliminar marcas de agua o difundir capturas de pantalla sin metadatos, dificultando el rastreo. Por supuesto, la ley también prohíbe la eliminación, manipulación, falsificación u ocultación de estas etiquetas de IA, o proporcionar herramientas que ayuden a hacer eso. Pero es de suponer que a los criminales no les importara mucho.
  2. Etiqueta indiscriminada. La normativa no distingue entre un retoque estético menor —por ejemplo, mejorar la resolución de una imagen— y un deepfake manipulador: todo recibe la misma advertencia, lo que puede restar legitimidad a usos creativos o benignos.
  3. Fatiga del usuario. Con la avalancha de contenidos etiquetados, existe el riesgo de que los internautas se acostumbren a las advertencias y las ignoren, como ya ocurre con los consentimientos masivos en materia de privacidad.
  4. Impacto en la privacidad. Los identificadores en metadatos podrían exponer información sensible (ubicación, dispositivo, cuentas asociadas).

Un precedente global

China es el primer país que convierte en obligación legal la diferenciación sistemática entre contenido humano y artificial. Occidente, aunque ha debatido iniciativas similares —hace ahora dos años desde que Sumar, partido de la coalición gobernante, puso esa propuesta sobre la mesa—, aún se mueve más lentamente.

El etiquetado obligatorio de contenidos generados por IA en China es un experimento a gran escala con implicaciones que van mucho más allá de la tecnología. A primera vista, se trata de una estrategia contra la desinformación y los riesgos de los deepfakes, pero al mismo tiempo refuerza el ecosistema de vigilancia y control de Internet en el país.

Lo que ocurra en China servirá como laboratorio para el resto del mundo: si el sistema demuestra efectividad real contra la manipulación digital, podría inspirar normativas similares en otros lugares. Aunque es posible que varios países se muevan en la misma dirección antes de que podamos tener claro los resultados del experimento chino.

Imagen | Marcos Merino mediante IA

En Xataka | El nuevo modelo de IA de Google es perfecto para algo problemático: es capaz de borrar la marca de agua de las imágenes 

utm_campaign=03_Sep_2025"> Marcos Merino .