Los desnudos de Grok, una forma contemporánea de despojo
No se trata de la privación de bienes materiales, sino de algo mucho más delicado: la identidad visual, la dignidad y la autonomía sobre el propio cuerpo
7 minutos de lectura'


Entre memes, discusiones políticas y el vértigo cotidiano de las redes sociales, en los últimos meses se ha instalado una práctica silenciosa y antijurídica en la red social X.
Bajo la apariencia de un comentario ingenioso o una ocurrencia más dentro del flujo digital, algunos usuarios solicitan a Grok –la inteligencia artificial integrada en X, la red social antes conocida como Twitter–, que modifique fotografías reales de terceros para generar nuevas imágenes en las que esas personas aparezcan desnudas, en trajes de baño diminutos o en escenas de connotación sexual explícita. No se trata de modelos ficticios ni de cuerpos creados desde cero por un algoritmo: el punto de partida es siempre una persona real, identificable, que jamás prestó su consentimiento para ese uso.
Por ejemplo, un usuario de X (generalmente un NN o alguien con perfil falso) toma una foto de una chica de la red social Instagram, la sube a X y le solicita a Grok que la desnude o la exhiba con una microbikini transparente. Los ejemplos abundan y las víctimas jamás prestaron su consentimiento para tamaño despropósito.
La lógica de la red disimula la gravedad del acto. Todo sucede rápido, casi sin fricción: una foto, un comentario, una respuesta de la IA, una imagen “nueva” que parece real. Y, sin embargo, lo que se produce es una forma contemporánea de despojo. No ya de bienes materiales, sino de algo mucho más delicado: la identidad visual, la dignidad y la autonomía sobre el propio cuerpo.
Desde el derecho, la primera tentación es preguntarnos si estamos frente a un delito. La respuesta exige matices. Si estas imágenes involucran a niños o adolescentes, la discusión se termina antes de empezar: la producción o difusión de material sexual infantil –aun cuando sea generado artificialmente– está expresamente reprimida por el artículo 128 del Código Penal. La ley no distingue si el contenido es “real” o “sintético”; lo que protege es la integridad de los menores frente a cualquier forma de sexualización.
Cuando se trata de personas adultas, el escenario es más complejo. El ordenamiento argentino aún no cuenta con una figura penal específica que penalice la clonación de imagen o voz mediante la utilización de sistemas de IA, esto es, la creación de desnudos digitales no consentidos mediante inteligencia artificial.
Ello no implica que, con este tipo de conductas, no puedan configurarse delitos vinculados a la violación de la intimidad, al hostigamiento digital o incluso a formas de violencia simbólica y psicológica (violencia de género digital) especialmente cuando estas prácticas se reiteran o buscan humillar o extorsionar a la víctima. El derecho penal, como tantas veces ocurre, avanza detrás de los hechos, tropezando con una tecnología que corre más rápido que la legislación.
Donde no existen dudas es en el plano civil. El derecho a la imagen, en la Argentina, goza de una protección robusta y clara. El artículo 53 del Código Civil y Comercial de la Nación (CCCN) establece que la imagen de una persona no puede ser captada, reproducida ni utilizada sin su consentimiento, salvo supuestos excepcionales que aquí no se verifican. No importa que la imagen final sea una “creación” de una inteligencia artificial: si se construye a partir de una fotografía real y permite reconocer a la persona retratada, el derecho lesionado subsiste intacto. Y el consentimiento, según el artículo 55 de dicha norma, no se presume, es de interpretación restrictiva y libremente revocable.
En el mismo sentido, el art. 31 de la ley 11.723 (anterior al CCCN), aún vigente, establece que el retrato fotográfico de una persona no puede ser puesto en el comercio sin su consentimiento expreso y la Corte Suprema de Justicia de la Nación ha entendido, en numerosos fallos, que el concepto “poner en el comercio” supone cualquier tipo de utilización de una imagen ajena, bajo cualquier forma y en cualquier medio, sin consentimiento.
En otras palabras, para nuestra legislación, “desnudar” a personas en una red social violenta la norma, alcanza reproche legal y aquellos que incurren en este tipo de conductas deberán responder por los daños y perjuicios causados. Convertir a alguien en protagonista involuntario de un desnudo digital no es una travesura tecnológica, es una apropiación indebida de su identidad visual y violenta su integridad.
Pero la cadena de responsabilidad civil no solo alcanza al usuario que le requirió a Grok la creación del nude, sino que se extiende a todos aquellos que deciden compartirlo en la misma red social X (mediante un retuit) o en cualquier otro medio digital o aplicación de mensajería instantánea.
En efecto, el viejo principio del derecho romano de “no dañar a otro” (alterum non laedere) alcanza plena aplicación en este contexto, ya que, si bien quien solicita la edición de una imagen para sexualizar a una persona incurre en un hecho ilícito y genera un daño por el que debe responder, también dañan aquellos que deciden compartirla.
La responsabilidad, entonces, no se agota en el momento de la creación. En el ecosistema digital, cada acto de distribución es una nueva lesión. El derecho civil argentino permite exigir el cese de la difusión, la eliminación del material y la reparación de los daños ocasionados, tanto al creador como a quienes contribuyen a su propagación. No hay anonimato que borre la imputación cuando el perjuicio es concreto y verificable.
A este cuadro debe sumarse una discusión ineludible: la responsabilidad de la propia red social. En efecto, X no puede considerarse un mero intermediario pasivo cuando integra una herramienta de inteligencia artificial que, por diseño o falta de controles adecuados, permite generar contenidos ilícitos a pedido de los usuarios.
En este aspecto, la jurisprudencia argentina es conteste en requerir a las redes sociales y proveedores de servicios de internet, en general, un actuar ético y un deber de diligencia razonable frente a contenidos manifiestamente lesivos. Por ello, permitir, tolerar o no impedir de manera eficaz la generación y circulación de desnudos digitales no consentidos expone a la plataforma a responsabilidad civil, especialmente cuando el daño es previsible y evitable. El desafío regulatorio consiste, entonces, en exigir a estas empresas estándares más altos de prevención, moderación y respuesta, acordes con el poder tecnológico que hoy detentan.
El debate, en definitiva, no es solo tecnológico ni exclusivamente jurídico: es también cultural. Hemos ido naturalizando la idea de que todo lo que es técnicamente posible resulta, por ese solo hecho, aceptable. Sin embargo, el derecho existe precisamente para fijar límites cuando el ejercicio de un poder –hoy también un poder algorítmico– amenaza con lesionar derechos ajenos.
La inteligencia artificial no crea una zona liberada de responsabilidad ni suspende los derechos personalísimos. Obliga, por el contrario, a reafirmar una noción básica: la imagen de una persona no es un insumo disponible ni un campo de experimentación, sino una manifestación de su dignidad. Lo verdaderamente inquietante no solo es que estas prácticas existan, sino también que empiecen a ser percibidas como parte del paisaje cotidiano.
Abogado consultor en Derecho Digital y Data Privacy, profesor UBA y Austral, director de posgrado “Derecho al olvido” Facultad de Derecho, UBA


