Responsabilidad legal por deepfakes en publicidad: uso de imagen ajena en anuncios con inteligencia artificial
La inteligencia artificial está revolucionando la publicidad digital, pero también ha generado nuevos focos de responsabilidad legal.
El uso de deepfakes para crear anuncios con la imagen o la voz de terceros sin consentimiento plantea conflictos jurídicos complejos que afectan directamente a empresas, agencias y plataformas.
Cuando la tecnología permite simular la identidad de una persona con fines comerciales, el problema ya no es técnico, sino jurídico y reputacional.
Analizamos a continuación cómo se articula la responsabilidad por deepfakes comerciales, desde la colisión de derechos hasta las medidas prácticas para prevenir y reaccionar ante estos supuestos.
Qué es un deepfake publicitario y por qué genera responsabilidad
Un deepfake es un contenido audiovisual generado o manipulado mediante inteligencia artificial que reproduce de forma realista la apariencia, la voz o los gestos de una persona real.
En el ámbito mercantil, existe deepfake publicitario cuando ese contenido se utiliza para promocionar productos o servicios, generando la apariencia de que una persona concreta respalda la marca.
Desde el punto de vista legal, no importa que la imagen no sea real, sino que el público identifique a un tercero y lo vincule comercialmente con el anuncio.
La colisión normativa: imagen, propiedad intelectual y competencia
El principal riesgo de los deepfakes comerciales es que suelen vulnerar varios marcos legales de forma simultánea, lo que multiplica la exposición a reclamaciones.
Derecho a la propia imagen: el punto de partida
El derecho a la propia imagen está protegido constitucionalmente (art. 18.1 CE) y desarrollado por la Ley Orgánica 1/1982.
Existe intromisión ilegítima cuando se utiliza la imagen, la voz o cualquier rasgo identificable de una persona con finalidad publicitaria sin consentimiento.
En el caso de los deepfakes, la identificación puede producirse incluso aunque no exista una reproducción exacta.
Basta con que el consumidor medio reconozca a la persona o entienda que participa en la campaña.
Este riesgo se agrava especialmente cuando se trata de:
- Personas con notoriedad pública o proyección mediática.
- Profesionales cuya reputación genera confianza en el consumidor.
- Perfiles utilizados como prescriptores de productos o servicios.
Propiedad intelectual y uso de contenidos para IA
Los deepfakes también pueden afectar a derechos de propiedad intelectual, especialmente cuando se apoyan en contenidos protegidos.
Aquí surgen problemas frecuentes en:
- Uso de fotografías, vídeos o audios sin licencia para entrenar modelos de IA.
- Generación de obras que pueden considerarse transformaciones no autorizadas.
- Incumplimiento de licencias que prohíben expresamente el uso para IA generativa.
Desde una perspectiva mercantil, estos supuestos suelen desembocar en conflictos contractuales con proveedores y reclamaciones económicas relevantes.
Competencia desleal: el impacto en el mercado
La Ley de Competencia Desleal permite actuar contra anuncios con deepfakes cuando estos falsean el comportamiento del consumidor o explotan indebidamente la reputación ajena.
En la práctica, los deepfakes publicitarios pueden constituir:
- Actos de engaño, al simular un respaldo inexistente.
- Actos de confusión, al inducir a pensar que existe una relación comercial.
- Explotación de la reputación ajena, al beneficiarse del prestigio de un tercero.
No es necesario acreditar un daño económico concreto.
Basta con que la conducta sea objetivamente idónea para alterar la competencia.
Quién responde legalmente por un deepfake comercial
La responsabilidad no se limita a quien crea técnicamente el deepfake.
En función del caso, pueden responder varios sujetos de forma acumulada.
Los principales focos de responsabilidad son:
- El anunciante, como beneficiario directo de la campaña.
- La agencia creativa o de marketing.
- La productora o proveedor tecnológico.
- La plataforma digital, en determinados supuestos.
El criterio clave será siempre el grado de control, conocimiento y diligencia mostrado por cada interviniente.
Las plataformas digitales se benefician, en principio, de un régimen de responsabilidad limitada.
Sin embargo, esta protección desaparece cuando tienen conocimiento efectivo del carácter ilícito del contenido y no actúan con rapidez.
El Reglamento de Servicios Digitales (DSA) refuerza esta obligación, exigiendo:
- Sistemas de denuncia accesibles.
- Procedimientos de retirada rápida.
- Transparencia en la publicidad digital.
En la práctica, una notificación jurídica bien documentada suele provocar la retirada del deepfake en un plazo breve.
Medidas cautelares urgentes: cómo frenar un deepfake
La difusión de un deepfake puede causar un daño reputacional inmediato.
Por ello, el ordenamiento permite solicitar medidas cautelares incluso antes de interponer la demanda principal.
Estas medidas suelen incluir:
- La retirada inmediata del anuncio.
- La prohibición de nuevas difusiones.
- El cese provisional de la campaña publicitaria.
Los tribunales valoran especialmente la urgencia y el riesgo de daño irreparable, elementos que suelen concurrir en este tipo de supuestos.
La prevención empieza en los contratos con agencias
Desde el punto de vista del cumplimiento normativo, los contratos son una herramienta esencial.
Es recomendable incorporar cláusulas sobre:
- Garantía de obtención de consentimientos.
- Prohibición expresa de deepfakes no autorizados.
- Cláusulas de indemnidad.
- Obligación de retirada inmediata ante requerimiento.
Estas previsiones permiten reducir riesgos y clarificar responsabilidades.
Preguntas frecuentes sobre deepfakes y publicidad
Puede ser ilícito si la persona resulta identificable y se genera una asociación comercial sin consentimiento.
El anunciante puede responder si se beneficia de la campaña o no actúa con diligencia tras conocer el hecho.
Sí, cuando existe urgencia y riesgo de daño irreparable.
No siempre, pero una notificación jurídica sólida suele ser eficaz.
Anticiparse ya no es opcional
La responsabilidad legal por deepfakes en publicidad se ha convertido en un riesgo real para empresas y profesionales. La combinación de inteligencia artificial, marketing agresivo y viralidad exige una respuesta jurídica preventiva y reactiva.
Quien integra protocolos, contratos bien diseñados y asesoramiento especializado no solo evita conflictos, sino que protege su reputación y su valor de marca en un entorno cada vez más expuesto al uso indebido de la tecnología.

RRYP Global, abogados de nuevas tecnologías.

