Expertos explican cómo funcionan los derechos de autor en el caso de los contenidos que genera la IA
11 minutos de lectura'


Hace pocos meses, la reconocida actriz Scarlett Johansson ocupó los titulares. No hubo alfombra roja, ni cámaras, ni un estreno particular, sino una carta. El papel incluía su firma, junto a la de otros 700 artistas, y un reclamo: cuestionaban el uso de sus imágenes, voces y obras protegidas por derechos de autor, pero utilizadas por la IA sin contar con su permiso.
Su caso es apenas uno entre muchos: la agencia de fotos y videos Getty Images demandó a Stable Diffusion (una plataforma para generar imágenes a pedido) por haber entrenado su modelo de IA con millones de imágenes de su catálogo sin licencia. Varios escritores, entre los que figuran John Grisham, están en disputa con OpenAI, porque alegan que sus obras fueron usadas para entrenar ChatGPT sin consentimiento ni compensación. El mundo de la música tampoco queda afuera de este debate, ya que Universal Music ha reclamado a Anthropic la reproducción de letras en respuestas que produce el modelo. La mayoría de los casos de este estilo se encuentran en litigio sin resolución definitiva, lo que reaviva una incómoda pregunta del momento: ¿quién es el dueño de los contenidos que genera la IA?
Para comprender este dilema es importante conocer cómo se entrenan estas herramientas. ChatGPT, Gemini, Claude, Copilot o Grok funcionan con un LLM detrás (Large Language Model, que en español se traduce como modelo de lenguaje de gran escala). Un LLM es entrenado consumiendo cantidades masivas de cotenido: libros, artículos periodísticos o de blogs, páginas web, contratos, conversaciones en foros, entre otros. O fotos, películas, series de TV, videos, además de canciones, voces grabadas y mucho más.
Su modo de funcionamiento despeja de la ecuación una duda clave: ¿es posible que la IA sea autora del contenido que genera? Emilio Berkenwald, socio y director del Departamento de Patentes de BERKEN IP, explica que, por el momento, las leyes consideran que el autor de una obra o de patentes de invención debe ser una persona física.
Marcelo de Luca, cofundador de The App Master, una software factory con más de 15 años de experiencia en el desarrollo de soluciones digitales, coincide y señala que “la autoría, en términos jurídicos, requiere una persona humana detrás”.

“El modelo no crea en sentido autoral: no tiene intención, experiencia ni subjetividad. Simplemente genera”, agrega Agustín Raimondi, abogado y fundador de la empresa de legaltech Welaw, y explica que, cuando el usuario escribe un prompt, “el resultado es texto que parece coherente y razonado, pero que, en definitiva, es el producto de cálculos probabilísticos sobre patrones lingüísticos aprendidos (el modelo no busca la respuesta en una base de datos ni entiende el texto en sentido humano, sino que lo que hace es predecir, palabra por palabra, cuál es la continuación más probable dado todo el contexto anterior)”.
Por tanto, aunque hoy existan contenidos generados de forma autónoma por la IA, como el caso de los agentes, que han llegado a crear una nueva religión en la red social Moltbook, hoy no están protegidos por el derecho de autor.
Ahora bien, ¿qué ocurre con el contenido que se origina con intervención de un usuario y es asistido por la IA, o con contenidos que reproducen obras preexistentes, en donde pueden existir derechos de terceros?
¿Se puede registrar una obra creada con IA?
A finales de agosto de 2022, Jason M. Allen se presentó a un concurso de arte de la Feria Estatal de Colorado, Estados Unidos, con una obra realizada con la herramienta de generación de imágenes a partir de texto “Midjourney”. Luego de ganar el primer premio, recibió numerosas críticas por haber empleado esa tecnología. Pocos días después, presentó una solicitud ante la Oficina de Derechos de Autor de Estados Unidos para registrar su obra, pero el examinador determinó que dicha obra no contenía “autoría humana”.
Más allá de este caso concreto, Guillaume Henry, abogado y doctor en Derecho de Francia, primer subreportero general de la Asociación Internacional para la Protección de la Propiedad Intelectual (AIPPI), quien trabajó en Copyright e IA, explica que el panorama cambia cuando es una persona física la que utiliza la inteligencia artificial como una herramienta de asistencia en el proceso creativo: en ese caso, los prompts funcionan como instrucciones o solicitudes dirigidas al sistema para crear una obra.
“En este supuesto, la inteligencia artificial actúa como una herramienta de apoyo a la creación. Es el autor quien determina las características de la obra. Por ello, la obra es original, ya que refleja la impronta de la personalidad del autor”, explica Henry y concluye: “En consecuencia, una obra creada por un humano con la asistencia de inteligencia artificial puede ser protegida por el derecho de autor”.
Berkenwald agrega que el análisis de a quién le corresponde la titularidad debe hacerse caso por caso y dependerá del régimen de transferencia de derechos que aplique (relación laboral, cesiones, licencias, etc.). “Puede darse una situación en la que un usuario tenga una licencia para usar un modelo de IA que genera contenido y que, contractualmente (a través de un contrato, como por ejemplo, de los términos y condiciones), se estipule que el contenido generado corresponde a la empresa que creó el modelo”, detalla el abogado.

Ahora bien, todavía se está estudiando qué nivel de intervención humana es necesario que tenga una obra para que una persona goce de los derechos de autor. Berkenwald explica que depende del grado de interacción que haya tenido el autor con la IA en la generación de la obra: “Si la obra fue el resultado de una instrucción muy precisa (por ej. prompt detallado o muchos prompts sucesivos) o de la modificación de algún algoritmo que usa la IA, etc., es más probable que la obra pueda beneficiarse del derecho de autor, siempre que cumpla con el requisito de originalidad”. En relación a esto último, detalla que se debe hacer un examen de originalidad equivalente al que se hace sobre una obra generada “convencionalmente”, en los que se busca una impronta personal del autor que refleje sus elecciones creativas. Al mismo tiempo, opina que, en un futuro, es posible que “al ser cada vez más común el uso de estas herramientas de IA, el grado de intervención humana requerido sea cada vez mayor”.
Por su parte, Raimondi aporta el caso de EE.UU. y señala que la Copyright Office ya tiene una posición tomada en este sentido: rechaza registros de obras generadas autónomamente por IA, pero acepta registros de obras con intervención humana significativa, aunque evaluando caso a caso. En la Argentina, explica que la Dirección Nacional del Derecho de Autor no tiene regulación expresa sobre “obras IA”, pero la doctrina mayoritaria (la mayoría de los especialistas en derecho) y la práctica administrativa están aplicando el criterio de autoría humana: tiene que haber un ser humano detrás que sea considerado autor.
¿El entrenamiento de la IA viola derechos de autor?
Un tercer escenario que actualmente está generando polémica en relación a la IA y los derechos de autor es el debate sobre el contenido que se usa para entrenar la IA. Los casos antes citados, como el de escritores o actores que reclaman por el uso de su voz e imagen dan cuenta de esto. Berkenwald opina que, en la mayoría de los países, el uso de obras protegidas sin consentimiento del titular para entrenar modelos de IA debería considerarse una infracción al derecho de autor. Sin embargo, indica que esto depende del contexto, ya que hay lugares donde “se contempla que puedan existir excepciones de uso justo (fair use), relacionadas con situaciones de interés público, con fines de investigación científica, educación, información o que no tengan una finalidad comercial“.

“Cientos de litigios se encuentran en curso en todo el mundo, en particular en Europa y en los Estados Unidos. Aún existe poca legislación específica sobre esta cuestión”, explica el doctor Henry y agrega: “No obstante, puede mencionarse la reforma japonesa de 2018, que permite utilizar obras intelectuales para el entrenamiento de sistemas de inteligencia artificial. En Europa, la Directiva del 17 de abril de 2019 sobre derechos de autor en el mercado único digital autoriza, en principio, estos usos, salvo que los titulares de derechos hayan reservado expresamente sus derechos”.
La dificultad radica en que internet funciona a escala global, pero la propiedad intelectual es algo que se regula distinto según los límites territoriales. “Un modelo entrenado en EE.UU., con obras europeas y usado por un argentino toca tres sistemas jurídicos distintos”, ejemplifica Raimondi y explica que aunque existe el Convenio de Berna, un tratado internacional de 1886 que establece estándares mínimos de protección autoral entre los países firmantes y que da un piso común de protección entre los 179 países adheridos, hay excepciones que no están estandarizadas. Entre ellas,el uso justo (permite usar obras protegidas sin pedir permiso, pero solo en ciertos casos), la minería de datos (analizar grandes cantidades de textos, imágenes o datos para encontrar patrones, sin enfocarse en el contenido individual), lo que ha llevado a que los tribunales estén empezando a usar estos criterios caso a caso, aunque hoy en día no exista un consenso uniforme.
¿Qué consecuencias ha tenido esto? Raimondi explica que ha llevado a lo que se conoce como “arbitraje regulatorio”: las empresas tienden a radicarse en jurisdicciones donde las excepciones al copyright son más amplias y enfrentan menos riesgos legales. “Que OpenAI esté constituida en EE.UU., donde el uso justo permite un uso más flexible de obras protegidas que en Europa o la Argentina no es una coincidencia. Es una decisión estratégica”, opina Raimondi.
En definitiva, Raimondi indica que a la pregunta en relación a si entrenar modelos con obras protegidas sin consentimiento viola derechos de autor cuenta con dos posiciones: por un lado, hay quienes aseguran que implica copiar y procesar obras protegidas a escala masiva sin licencia ni compensación, algo que se considera como reproducción no autorizada bajo el esquema tradicional de copyright. Por otro lado, algunos defienden la postura de que el modelo no “memoriza” las obras, las usa para aprender patrones; en ese sentido, la doctrina de fair use de EE.UU. podría cubrir esto; por su parte, la Unión Europea tiene una excepción específica de minería de datos y texto la Directiva de Derechos de Autor en el Mercado Único Digital (Directiva 2019/790), con opt-out para los titulares (con un mecanismo de exclusión para los titulares de derechos). En el caso de la Argentina, el experto explica que no existe la excepción de minería de datos y texto, por lo que, “si un modelo se entrenó con obras argentinas protegidas sin licencia hay argumento sólido para infracción, pero nadie lo ha litigado todavía acá”.

Aunque se utilice una combinación de tratados internacionales “en la práctica, litigar internacionalmente contra una empresa tecnológica grande es prohibitivamente caro para un creador individual”, advierte de Luca y agrega: “Eso genera una asimetría de poder muy grande que todavía no tiene solución clara”. Explica que la Unión Europea es quien más avanzó con la AI Act, que ya está en vigor y establece obligaciones concretas para los desarrolladores de modelos, incluyendo transparencia sobre los datos de entrenamiento. Por su parte, China tiene regulaciones específicas sobre contenido generado por IA que en algunos aspectos son más estrictas que las occidentales. El caso de Estados Unidos señala que “va más lento en legislación, pero tiene la jurisprudencia más activa por los litigios en curso”.
Mientras casos de este estilo no se resuelven definitivamente, los expertos explican que las empresas de IA están operando en una zona de incertidumbre legal significativa, y eso está empujando hacia acuerdos de licenciamiento con editoriales, agencias de noticias y sellos musicales.
Por lo pronto, muchos coinciden en la importancia de transparentar el entrenamiento de las herramientas de IA. “Más allá de las iniciativas legislativas para definir el régimen en relación con las IA, sería importante que las plataformas que alojan sistemas de inteligencia artificial tengan obligaciones de transparencia -advierte Berkenwald- para proporcionar información suficiente sobre los datos u obras utilizados para entrenar el sistema, a fin de permitir que los titulares puedan hacer valer sus derechos”.
1Así se puede encontrar la papelera de WhatsApp para recuperar mensajes viejos
2JBL actualiza sus parlantes Xtreme 5 y Go 5 con sonido más potente y diseño renovado
3Cómo pagar el colectivo con la SUBE Digital
4Video: así lograron que una persona ciega recupere parte de la visión con microestimulación cerebral



