En este inicio de 2026, la generación de imágenes mediante Inteligencia Artificial (IA) se ha convertido en una herramienta cotidiana, pero también en un arma de doble filo. La Agencia Española de Protección de Datos (AEPD) ha lanzado una advertencia seria: subir la foto de un amigo, familiar o tercero a una IA no es un acto inocuo y puede desencadenar consecuencias legales y personales devastadoras.
Los dos niveles de riesgo según la AEPD
La Agencia distingue entre las consecuencias que vemos y aquellas que ocurren «en la sombra» de los servidores:
1. Riesgos Visibles: El contenido generado
Es la parte más evidente y mediática. La IA permite crear imágenes verosímiles pero falsas que pueden dañar irreparablemente la reputación:
• Sexualización no consentida: Un problema creciente en redes sociales como X (Twitter).
• Situaciones humillantes o ilegales: Situar a alguien en escenas embarazosas o cometiendo delitos (como un robo) que nunca sucedieron.
• Vulneración del honor: La AEPD prestará especial vigilancia cuando las víctimas sean menores o personas vulnerables.
2. Riesgos Invisibles: La pérdida de control
Incluso si el resultado no se publica, el simple hecho de subir el archivo ya supone un peligro:
• Alojamiento de datos: La imagen y la identidad de la persona quedan registradas en servidores externos, a menudo fuera de la UE.
• Dificultad de borrado: Es casi imposible verificar si la IA ha eliminado las copias o retenciones de la imagen.
• Efecto multiplicador: Los datos de esa persona pueden ser usados por la IA para generar contenidos futuros para otros usuarios sin que nadie lo sepa.
Más allá de la protección de datos: Implicaciones legales
La AEPD recuerda que usar la imagen de un tercero sin consentimiento no solo afecta a la privacidad, sino que activa otros mecanismos legales:
1. Derechos Fundamentales: Vulneración del derecho al honor, a la intimidad y a la propia imagen (incluyendo a personas fallecidas).
2. Código Penal: Ciertas acciones, como la difusión de contenido sexual o vejatorio generado por IA, pueden derivar en penas de cárcel.
3. Vacío regulatorio: Dado que la legislación sobre IA está en sus etapas iniciales, recuperar el control de una imagen una vez filtrada es extremadamente complejo.
«Subir una imagen a la IA no es un acto neutro; supone la pérdida efectiva de control de la imagen de esa persona». — Agencia Española de Protección de Datos.




















