La escena se repite en salas de reuniones de medio mundo. Una agencia presenta una campaña visualmente impecable: el coche atraviesa un paisaje imposible, la modelo tiene una piel perfecta, el producto flota en un entorno onírico. Todo, o en parte, generado con herramientas de IA. El cliente, impresionado, aprueba la propuesta. Y entonces alguien formula la pregunta incómoda:
“¿Esto es nuestro? ¿Podemos registrarlo?”
El silencio posterior suele ser revelador. En muchas de las charlas que he dado sobre este tema aparece siempre la misma realidad: una parte significativa de la industria publicitaria está creando activos sin tener claro quién es su propietario legal. Es como construir una casa espectacular sin preguntar antes de quién es el terreno donde se edificará.
Lo que dicen la regulación
En enero de 2025, la Oficina de Copyright de Estados Unidos dejó la cuestión razonablemente clara: los outputs de IA generativa solo pueden protegerse por copyright cuando existe una intervención humana significativa. La mera provisión de prompts no es suficiente. Con la tecnología actual, los prompts por sí solos no proporcionan el control humano necesario para considerar al usuario de un sistema de IA como autor del resultado.
Puede darse la paradoja de que un prompt sea registrable como obra intelectual, pero no así los resultados que se generen a partir de él.
Traducido al lenguaje del negocio: un spot creado a partir de un prompt brillante, pero sin una intervención humana sustancial posterior, puede ser legalmente reutilizado por cualquiera. Un competidor. Un tercero. O convertirse en objeto de una parodia. Y la marca no tendría herramientas legales claras para evitarlo.
En Europa, el AI Act añade capas adicionales de complejidad. A partir de agosto de 2026, cualquier contenido generado o modificado con ayuda de IA que pueda generar dudas razonables sobre si es real o sintético deberá estar claramente etiquetado como tal y ser legible por máquina.
En este contexto aparece lo que algunos reguladores describen como un “espectro de autoría”. En un extremo, el contenido generado exclusivamente por IA, que no es protegible. En el otro, la autoría humana añadida al producto final mediante la selección, coordinación y organización creativa del material generado por IA. Entre ambos extremos, una amplia zona gris que se evaluará caso por caso en función del grado real de intervención humana.
Los riesgos que debemos empezar a calcular
Más allá del debate teórico, existen riesgos comerciales muy concretos.
Si una pieza carece de protección de copyright, cualquiera puede utilizarla. Imagina invertir cientos de miles de euros en una campaña cuyo elemento visual central puede ser legalmente apropiado por un competidor.
Peor aún: si los outputs son sustancialmente similares a los datos de entrenamiento, existe un argumento jurídico sólido para sostener que infringen derechos de reproducción de obras preexistentes. Tu campaña “original” podría estar vulnerando derechos de terceros sin que nadie lo haya detectado a tiempo.
Y hay una capa adicional que muchas veces se pasa por alto: cada plataforma de IA establece sus propias reglas sobre uso comercial y propiedad intelectual, y estas difieren de forma significativa entre unas y otras. Midjourney, DALL·E, Stable Diffusion, Runway o Sora definen condiciones distintas sobre quién posee los outputs, qué usos están permitidos y qué responsabilidades asume el usuario. Algunas limitan el uso comercial a planes de pago; otras retienen ciertos derechos sobre los resultados; muchas excluyen explícitamente su responsabilidad frente a reclamaciones de terceros.
Conocer estas condiciones y documentar bajo qué términos se generó cada pieza no es burocracia. Es la primera línea de defensa ante posibles reclamaciones futuras.
El sector publicitario ya empieza a sentir la presión. Grandes marcas, especialmente en sectores como el automovilístico, están realizando consultas a sus agencias sobre el uso de IA en campañas y responden incorporando cláusulas contractuales que preguntan explícitamente si los proveedores utilizan IA y cómo han sido entrenados esos sistemas.
El tsunami regulatorio que viene
En diciembre de 2025, la Comisión Europea publicó el primer borrador del Code of Practice sobre transparencia del contenido generado por IA. El documento propone un enfoque “multicapa” para el marcado del contenido, combinando metadatos y sistemas de detección. El incumplimiento puede conllevar multas de hasta 15 millones de euros o el 3% de la facturación anual global.
Estados Unidos avanza en la misma dirección. En junio de 2025, el estado de Nueva York aprobó el Synthetic Performer Disclosure Bill, que exige divulgaciones claras cuando un anuncio incluye talento generado por IA.
China ha ido aún más lejos. Desde septiembre de 2025, cualquier contenido generado o alterado mediante IA debe estar etiquetado como tal, tanto de forma visible como a nivel de metadatos.
Lo que el mercado necesita
Ante este escenario, nuestro sector necesita sistemas que permitan demostrar, de forma verificable, qué parte del proceso creativo ha sido humana y qué parte ha sido generada por IA.
La documentación del proceso se vuelve crítica. No basta con conservar los prompts: es necesario registrar cada iteración, cada modificación y cada intervención humana. La diferencia entre un activo protegible y uno que cualquiera puede copiar está, precisamente, en esos registros.
Una posible vía de solución es el uso de tecnología blockchain para verificar la autenticidad e integridad del contenido digital mediante registros inalterables. Un sistema de certificación basado en blockchain puede documentar el momento exacto de creación, el grado de intervención humana y la cadena completa de modificaciones, sin posibilidad de alteración retroactiva.
Este enfoque, combinado con estándares de marcado legibles por máquina como C2PA, permite a anunciantes y socios disponer de una base documental sólida frente a futuras reclamaciones.
Para las agencias, esto significa poder demostrar a sus clientes exactamente qué están comprando. Para los anunciantes, poder auditar qué porcentaje de sus activos cuenta con una protección legal real.
El momento de actuar
Las agencias que implementen ahora sistemas de documentación y certificación del proceso creativo ofrecerán algo que sus competidores no pueden: certeza jurídica sobre la titularidad de los activos.
Las que no lo hagan estarán jugando a la ruleta rusa con los presupuestos de sus clientes. Con litigios ya en marcha, regulación endureciéndose en varios continentes y marcas exigiendo cláusulas específicas sobre el uso de IA, la pregunta ya no es si habrá problemas, sino cuándo.
La tecnología para abordar este reto existe. La combinación de registros blockchain, certificación de procesos y documentación de la intervención humana permite crear una cadena de custodia verificable para cada pieza creativa. La cuestión es cuántas agencias decidirán adoptarla antes de que un cliente enfadado o un regulador con ganas de sentar precedente les obligue a hacerlo.
David Lahoz es fundador y CEO de Naurus

