La inteligencia artificial permite crear imágenes falsas muy realistas —los conocidos deepfakes— capaces de colocar el rostro de una persona sobre un cuerpo que no es el suyo. Cuando esto afecta a menores, el daño emocional, social y jurídico se multiplica.

La Agencia Española de Protección de Datos ha impuesto la primera sanción en Europa por un “desnudo falso generado por IA”. Varios menores crearon y compartieron imágenes manipuladas de compañeras menores, utilizando una aplicación que generaba desnudos falsos. El contenido llegó a difundirse en redes sociales e incluso en plataformas pornográficas.

La AEPD multó a un adulto implicado con 2.000 euros, reducidos a 1.200 por pronto pago. La resolución marca un antes y un después: aunque la imagen sea falsa, sigue siendo un dato personal y su manipulación sin consentimiento es un tratamiento ilícito.

Por qué es tan grave aunque la imagen no sea real

  • La cara es identificable: jurídicamente, es un dato personal.
  • El daño emocional y social puede ser enorme: vergüenza, acoso, miedo, pérdida de control sobre la propia imagen.
  • Las herramientas de IA hacen que cualquiera pueda generar este tipo de montajes con muy poco esfuerzo.
  • Para un menor, el impacto en su reputación y bienestar puede durar años.

Responsabilidad: quién responde si lo hace un menor

  • Penal: el menor (14–17 años) puede ser responsable.
  • Civil: los padres responden por los daños que causen sus hijos.
  • Administrativa: la AEPD puede actuar contra el menor o contra los padres según la edad y supervisión.

Cómo pueden prevenirlo las familias

  1. Hablar abiertamente con los hijos sobre privacidad, manipulación de imágenes y consecuencias.
  2. Revisar las apps instaladas y los permisos que conceden.
  3. Fomentar el pensamiento crítico: “¿Podría dañar a alguien si comparto esto?”.
  4. Establecer límites claros de uso del móvil y aplicaciones de IA.
  5. Si el menor es víctima: actuar rápido, recopilar pruebas, denunciar, pedir retirada del contenido y buscar apoyo profesional si es necesario.

Acciones rápidas para padres o tutores

  1. Revisar juntos las aplicaciones del móvil y hablar sobre para qué sirven.
  2. Comentar el caso de la AEPD como ejemplo real.
  3. Fijar una regla familiar de uso responsable: no compartir imágenes íntimas propias o ajenas, sean reales o generadas por IA.

En conclusión

Los deepfakes son fáciles de crear, pero pueden causar daños profundos. La primera sanción en España demuestra que la ley protege la imagen de los menores, incluso cuando es falsificada. La mejor defensa sigue siendo la educación digital, el diálogo y unos límites claros en casa.

No te pierdas la entrevista completa con Javier Nogueroles, que podrás escuchar cada semana en el programa TIC TAC DATOS de ONDA NARANJA COPE.

Quick LOPD | RGPD
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.