
Abuso
Entrá a la guía de servicio y encontrá los tips de los expertos sobre cómo prevenir, actuar y encontrar ayuda frente a este problema


La tendencia es tan alarmante como creciente: cada vez más pedófilos utilizan inteligencia artificial (IA) para crear material de explotación sexual de niñas, niños y adolescentes, la mal llamada “pornografía infantil”. Se trata de un fenómeno mundial del cual la Argentina no escapa: mediante el uso de esta tecnología, se generan imágenes y videos hiperrealistas que luego son comercializados en la dark web, la internet oculta donde suelen operar las redes criminales.
Esta realidad plantea nuevos desafíos en el ámbito penal, ya que la legislación argentina —a diferencia de lo que ocurre en otros países, como España— no contempla expresamente las creaciones digitales de este tipo de material.
En ese contexto, la Cámara de Apelaciones de Zárate-Campana emitió hace unas semanas un fallo pionero: consideró que el actual artículo 128 del Código Penal, que regula la tenencia, producción y distribución de material de explotación sexual de chicos y chicas, también comprende las representaciones generadas o modificadas mediante IA, aun cuando no haya víctimas reales identificadas.
Para la Cámara, la creación de estas imágenes constituye un delito y puede ser penada. Fue la primera vez que los magistrados tuvieron que expedirse sobre un caso de este tipo, y no conocían antecedentes en el país.
En ocasiones, el material creado por IA incluye rostros de chicos reales (a veces extraídos de sus redes sociales o de las de sus padres o amigos). Pero también existe material completamente falso, en el que tanto los rostros como los cuerpos son generados digitalmente.
En todos los casos, se muestra a niños, incluso bebés, siendo abusados sexualmente. De hecho, el término “toddlers”, que refiere a pequeños de menos de tres años, es uno de los más buscados en las redes de pedofilia.
El fallo de la Cámara se basó en que el daño provocado por este tipo de material, incluso si es digital, es real y vulnera el interés superior de niñas, niños y adolescentes. Además, se inscribe en un contexto donde crece el consenso sobre la urgencia de reformar el Código Penal para tipificar de manera explícita estos delitos.
El caso que dio lugar al fallo comenzó cuando un hombre, identificado en el expediente, al que accedió LA NACION, como D.O.P., fue acusado de tenencia y distribución de material de explotación sexual de menores de entre 3 y 13 años, tras hallarse numerosas fotos y videos en su computadora.
Su defensa sostuvo que no se había acreditado la existencia de víctimas reales y que el contenido podía haber sido generado o alterado con IA. Argumentó que el artículo 128 busca proteger a menores concretos y no penaliza representaciones ficticias.
Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro rechazaron esa postura y confirmaron la elevación de la causa a juicio. Fuentes judiciales explicaron a LA NACION que, tras varios días de debate, los magistrados concluyeron que el artículo 128, reformado por la Ley 27.436 en 2018, contempla representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas.
“La defensa del acusado planteó, en primer lugar, algo clásico en estos casos: la falta de individualización de los menores en las imágenes y la indefinición de sus edades. Decían que no había víctimas concretas porque no se sabía quiénes eran esos chicos ni qué edad tenían. Pero, viendo las fotos, era evidente que se trataba de menores, incluso de menos de 13 años, lo que es un agravante”, señaló a LA NACION una fuente judicial cercana al caso.
El segundo argumento de la defensa, por su novedad, fue el más desafiante: alegar que las imágenes podrían haber sido generadas por IA. Los jueces lo abordaron en dos planos. Primero, citaron el informe de un perito que aseguró que es posible determinar mediante análisis técnico si las imágenes fueron creadas digitalmente, algo que podría definirse en la etapa judicial posterior.

Aunque eso bastaba para elevar la causa, los jueces decidieron además pronunciarse sobre si las imágenes creadas con IA pueden constituir delito. Para responder, se basaron en:
La reforma de 2018 amplió el artículo 128 para incluir la tenencia simple de material de explotación sexual de chicos y chicas, y elevó las penas. También adecuó el lenguaje a estándares internacionales, refiriéndose a “representaciones de menores de 18 años dedicados a actividades sexuales explícitas o cualquier representación de sus partes genitales con fines sexuales”.
“Todo esto les permitió a los magistrados decir que las imágenes simuladas configuran delito en los términos del artículo 128 y, por ende, pueden ser penadas”, resumieron fuentes judiciales.}
¿Cómo llegan a la Justicia los casos de pedófilos que producen o difunden este material? Daniela Dupuy, titular de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas porteña (UFEDyCI), explica que el circuito comienza cuando las empresas de internet detectan que algún usuario sube imágenes o videos de explotación sexual. Deben denunciarlo a la ONG estadounidense National Center for Missing and Exploited Children y, si el IP está en Argentina, el caso se deriva al Ministerio Público Fiscal de la ciudad de Buenos Aires.
A nivel nacional, se reciben entre 400 y 500 reportes diarios, entre los cuales se ven cada vez más casos vinculados a material creado mediante IA. Según explica Dupuy, hay dos grandes situaciones:
Dupuy, quien además dirige el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral, recuerda el motivo por el cual en 2018 se incorporó la figura de la tenencia simple de material de explotación sexual infantil. “Esto tiene que ver con el circuito de los pedófilos: el que tiene una o dos imágenes siempre quiere más y distintas. Para acceder a ese material, hay que intercambiarlo, como si fueran figuritas. Y la demanda genera más oferta. La oferta implica producción, y la producción implica abuso”, advierte.
En esa última reforma del Código no se discutió la posibilidad de sumar expresamente las imágenes generadas por IA, porque el fenómeno todavía no era tan visible. Para Dupuy, es urgente avanzar en una reforma legal: “Se necesita una modificación expresa del Código que nos evite interpretaciones. Es muy difícil determinar si las imágenes creadas con IA son reales o ficticias. Aunque los chicos que aparecen no existan, esto vulnera el interés superior de niñas, niños y adolescentes”, concluye.
