Una joven modelo nacional acude a mi despacho. Viene con la mirada baja, las manos temblorosas, y un móvil donde guarda las imágenes que, aún no, pueden destrozar su vida en cuestión de días. Violación de identidad.
Violación de identidad
Javier Beltrán – Abogado. Especialista en Derecho de la Inteligencia Artificial
No hace falta imaginarlo. Ya ha pasado. Su rostro aparece, sin que ella haya hecho nada, en vídeos de contenido sexual explícito. No son reales. Son deepfakes. Generados por una aplicación de inteligencia artificial que cualquiera puede descargar pero que han modificado.
No ha dado su consentimiento. Nunca ha posado para esas escenas. Pero ahí está su cara. Su voz. Su cuerpo simulado. Circulando por redes, grupos privados, foros oscuros. Todo gracias a un algoritmo entrenado para engañar. Y detrás de esa máquina, alguien. Un creador. Un usuario. Un agresor oculto entre millones. Violación de identidad
La agresión invisible.Violación de identidad
Lo perturbador de este nuevo delito es su sofisticación. El daño es real, pero el arma es digital. La víctima siente vergüenza, miedo, pérdida de control. ¿Cómo demostrar que no es ella la del vídeo? ¿Cómo evitar que su imagen, combinada con el cuerpo de otra persona, siga multiplicándose como una metástasis en servidores de todo el mundo?
Lo llaman “pornografía sintética”. Nosotros lo llamamos atentado contra la identidad y la dignidad humana. Y lo más grave: las propias aplicaciones de IA generativa que permiten este tipo de usos —algunas incluso promocionadas como “diversión”, “retoque facial” o “fantasía adulta”— no imponen ningún control efectivo para impedir estas manipulaciones.
La tecnología está liberada. La ley, aún no. Y no hablemos de la falta de medios, y desconocimiento, de las Fuerzas y Cuerpos de Seguridad (si les digo que han tardado dos años en poder acceder a una tablet de un cliente por falta de medios, imaginen cuando estos temas se salgan del tiesto)
¿Podemos perseguir al responsable?
Sí. Pero es una carrera contra el tiempo y contra el anonimato.
Cuando una persona utiliza una app de IA para generar contenido sintético con la cara de otro, comete —en España y en la UE— varias infracciones y posiblemente delitos:
-
Intromisión ilegítima en la imagen y la intimidad (LO 1/1982).
-
Tratamiento ilícito de datos biométricos sin consentimiento (RGPD).
-
Revelación de secretos y atentado contra la integridad moral (arts. 197 y 173 CP).
-
Y si hay ánimo de dañar, calumnias, coacciones o incluso acoso digital.
La víctima puede acudir a un juez civil para exigir la retirada inmediata del contenido, una indemnización y medidas cautelares. Puede también presentar denuncia . Pero aquí entra el primer problema: ¿cómo identificar al responsable?
La mayoría de estas apps permiten actuar bajo seudónimo, con servidores ubicados fuera de Europa, y sin requerir verificación de identidad. La trazabilidad digital existe, sí, pero requiere peritajes, medidas judiciales urgentes, colaboración internacional.
Y mientras tanto, el daño ya está hecho.
El silencio de las plataformas
Un segundo frente es el de las plataformas que permiten —y en algunos casos, facilitan— este tipo de conductas. Aplicaciones de IA que no integran filtros, ni verifican si la imagen que se sube es propia o ajena, ni obligan al usuario a declarar la finalidad del uso.
¿Son responsables de la Violación de identidad?
Desde un punto de vista jurídico, sí, si no han adoptado las medidas técnicas y organizativas adecuadas para prevenir estos usos abusivos, conforme al Reglamento General de Protección de Datos y al nuevo Reglamento de IA de la Unión Europea.
El artículo 5 de este último, ya en vigor parcialmente desde finales de 2024, prohíbe expresamente los sistemas de IA que manipulen imágenes o información de personas sin consentimiento, especialmente si se usa con fines engañosos, sexuales o degradantes.
Es decir, si una app de IA permite deepfakes sexuales sin mecanismos de control, podría ser considerada un sistema de “riesgo inaceptable”, lo que conllevaría su retirada del mercado, inspección por la Agencia Española de Supervisión de la IA (AESIA), y sanciones de hasta 35 millones de euros.
¿Qué podemos hacer?
Desde Javier Beltrán Abogados, desplegamos un protocolo inmediato en estos casos:
-
Monitorización digital de los sitios donde circulan las imágenes.
-
Reclamaciones ante la AEPD y AESIA para que activen los mecanismos de bloqueo y sanción.
-
Acciones judiciales urgentes civiles y penales, con solicitud de medidas cautelares y prueba digital.
-
Investigación técnica del origen del contenido, mediante expertos en trazabilidad algorítmica y metadatos.
Además, asesoramos a víctimas y profesionales para que comprendan su derecho a decidir sobre su imagen, incluso cuando esta ha sido robada por una máquina.
Un aviso a navegantes. Violación de identidad
Las tecnologías de IA generativa son extraordinarias, pero también potencialmente devastadoras cuando se usan con fines ilegítimos. No podemos esperar a que ocurran tragedias para reaccionar. Necesitamos un marco de responsabilidad claro, tanto para los usuarios como para las plataformas que diseñan estos modelos.
El rostro, la voz, el cuerpo… no son solo datos. Son identidad. Y la identidad no se puede falsear sin consecuencias.
Que lo sepan quienes juegan con algoritmos como si fueran juguetes. Porque cada imagen manipulada sin consentimiento no es solo una broma: es un ataque. Y ahora, por fin, la ley empieza a tomárselo en serio.
En nuestro Despacho posiblemente podamos encontrar una solución para su caso. Puede pedir cita previa, presencial, telefónica o por videoconferencia de una o media hora, en el teléfono 966171294 o enviando un mensaje al Whatsapp 628425987.
Contactar con Javier Beltrán Abogados Alicante
Javier Beltrán-Domenech (LinkedIn) es abogado especializado en Derecho Procesal y Derecho Civil. Javier Beltrán Abogados Alicante.
Deje su comentario