
La inteligencia artificial doblegará al derecho
Mientras los juristas afinan nociones, redactan artículos y debaten principios, las arquitecturas de aprendizaje automático se entrenan, se despliegan y se reentrenan a una velocidad que desafía cualquier calendario legislativo
7 minutos de lectura'


El derecho llega tarde y la inteligencia artificial (IA) avanza como el correcaminos. Se trata de una imagen sencilla que resume una realidad más compleja: mientras los juristas afinamos nociones, redactamos artículos y debatimos principios, las arquitecturas de aprendizaje automático se entrenan, se despliegan y se reentrenan a una velocidad que desafía cualquier calendario legislativo.
Las regulaciones y códigos éticos que hoy exhiben las grandes compañías tecnológicas son, en su inmensa mayoría, ensayos públicos y expresiones de felices deseos. Manuales de buenas prácticas, declaraciones de principios y comités de ética que suenan bien en una conferencia -transparencia, responsabilidad, respeto por los derechos humanos- pero que, cuando se ponen frente al incentivo del mercado, se vuelven frágiles.
No es nada original señalar que la ética, muchas veces, cede ante una valija con billetes verdes: en la Argentina tenemos variados ejemplos de ello. El ensayo ético se disuelve cuando la presión por llegar primero al mercado devora la integridad de algunos jugadores del sector.
La Unión Europea y el Estado de California han respondido -o han intentado hacerlo- con marcos normativos visibles y ambiciosos, en el papel.
Europa aprobó la denominada ley de Inteligencia Artificial (AI Act), una regulación que clasifica sistemas por niveles de riesgo, prohíbe usos inaceptables y somete a requisitos estrictos a los sistemas de “alto riesgo”, imponiendo documentación, evaluación de datos de entrenamiento y obligaciones de transparencia. Se trata de la primera tentativa global de poner límites jurídicos a la inteligencia artificial.
En Estados Unidos, donde la respuesta federal ha sido fragmentaria, California emergió como laboratorio regulatorio. Leyes y proyectos -desde iniciativas sobre herramientas de decisión automatizada hasta reglas administrativas locales- han intentado construir obligaciones para desarrolladores y usuarios de sistemas algorítmicos: demandas de evaluación de impacto, auditorías de sesgos y requisitos de información para decisiones consecuentes.
En 2025 la agenda legislativa californiana avanzó hacia un marco sobre frontier AI y medidas administrativas para dar mayor transparencia y supervisión a modelos potentes, además de normativas vinculadas con la protección del consumidor y la gobernanza de decisiones automatizadas.
En el nivel federal se ha pretendido atajar las deepfakes (creación de imagenes y videos falsos cuya falsedad es imposible de determinar a simple vista) con sistemas de notice and take down (notificación para requerir la eliminación de una imagen o video falso) que no se alejan de viejos mecanismos regulados para la protección de propiedad intelectual en buscadores y redes sociales.
En América Latina, en general, predominan los proyectos “copy-paste” de la mano de legisladores interesados en agregar algo de glamour a las agendas legislativas tradicionales, más preocupadas por cuestiones domésticas que por aquello que nos gobernará en un par de años: seguimos mirando el árbol, aunque el bosque sea abrumadoramente inmenso.
Ahora bien, ¿qué implican en la práctica la normativa europea y la californiana? En lo sustancial, ambas parten de tres constataciones fundamentales: en primer lugar, han identificado la existencia de riesgos y han procedido a su clasificación; en segundo término, han formulado un conjunto de principios y obligaciones -que abarcan desde la calidad de los datos hasta la trazabilidad y la supervisión humana- y, por último, han previsto mecanismos sancionatorios e incentivos destinados a garantizar su cumplimiento.
Se trata, en definitiva, de una arquitectura normativa clásica, diseñada con una sólida intención técnica y jurídica. Sin embargo, su implementación pone de manifiesto dos límites estructurales. El primero es de carácter temporal: la redacción, negociación, aprobación y entrada en vigor de una norma requiere años, mientras que el entrenamiento y despliegue global de un modelo de IA de última generación puede completarse en cuestión de semanas. El segundo límite se relaciona con la extraterritorialidad y la economía de la infraestructura: las grandes plataformas operan a escala global y concentran recursos computacionales, datos y talento, de modo que las regulaciones locales chocan inevitablemente contra su capacidad para reconfigurar procesos, redistribuir cargas de trabajo y optimizar un cumplimiento meramente formal, sin alterar el núcleo del poder que dichas infraestructuras concentran.
Si miramos la letra de estas regulaciones, lo que encontramos -y esto es importante- no conlleva un bloque normativo que controle la IA, sino un mapa de buenas intenciones y obligaciones diferidas. Muchos artículos enumeran requisitos técnicos y sanciones potenciales, pero la implementación efectiva depende de organismos administrativos, estándares técnicos aún en elaboración, procedimientos de auditoría que no existen todavía y, sobre todo, de la capacidad política para supervisar actores con recursos inmensos. En otras palabras: se trata de normas que, por su propia arquitectura, admitirán lagunas operativas durante un tiempo apreciable.
En esta tensión entre la velocidad tecnológica y la lentitud normativa reside la hipótesis aquí sostenida: la IA está en condiciones de convertirse en un nuevo factor de poder internacional. No se trata sólo del poder económico de las empresas que las controlan, sino de una capacidad de moldear reglas de juego sociales, influir en procesos políticos y reorganizar mercados. Quien gobierne los sistemas de IA tendrá, temporalmente, una posición de dominio.
El derecho romano, con su vocación por ordenar la vida social y por identificar fuentes del poder jurídico, nos ofrece un espejo conceptual útil. Los romanos distinguían entre lo que es imperio y lo que es potestas; entre normas que emanan de la autoridad constituida y las fuerzas sociales que terminan por crear hechos jurídicos.
Las máquinas, si se piensa en clave histórico-jurídica, tienden a producir “hechos” -procesos de decisión, mecanismos de producción de verdad estadística, sistemas de reputación- que luego reclaman una respuesta normativa. En ese sentido, podríamos decir con los clásicos: primero vienen los hechos; luego el derecho intenta ponerse al día. El problema contemporáneo es que los hechos ahora se generan en tiempo real y con capacidad de autoreplicación algorítmica. El derecho romano enseñaba prudencia, pero también la necesidad de reglas claras: la lección vale hoy y advierte sobre la pasividad normativa.
¿Qué derivaciones prácticas trae esta constatación? Tres, de peso; a saber: que la regulación debe combinar velocidad y flexibilidad: marcos que permitan exigencias mínimas inmediatas pero que se definan mediante estándares técnicos y agencias capaces de actuar con agilidad; que la supervisión internacional será esencial, y que la arquitectura distributiva del poder tecnológico debe ser objeto de política pública: no alcanza con enunciar normas, hay que incidir en quien posee y gestiona las palancas tecnológicas.
Aun así, y hay que decirlo con claridad, cabe dudar de que alguna norma, por robusta que sea, “doblegue” a la IA en un sentido absoluto (ojalá que estemos equivocados). Las normas pueden limitar usos, sancionar abusos y orientar incentivos; pueden proteger derechos y crear fricción regulatoria para modelos dañinos. Pero no pueden detener la dinámica material: modelos que se autorreflexionan, economías de escala, redes de usuarios y máquinas que aprenden unas de otras.
En esa carrera, la ley será un actor más -importante, legítimo, necesario- pero no el árbitro único. La IA impondrá, en cierto grado, nuevos equilibrios de poder hasta que una nueva institucionalidad - quizá una gobernanza internacional hábil y dotada de armonía técnica- logre corregir el sesgo de la balanza.
En conclusión, afirmar que “la IA doblegará al derecho” no supone proclamar un apocalipsis jurídico, sino identificar una confrontación real entre dos temporalidades y dos fuentes de poder.
El derecho puede y debe reaccionar, ajustarse, innovar; pero reconocer la magnitud del desafío exige honestidad intelectual: no podremos pretender que una norma se publiqué hoy en el Boletín Oficial y mañana todo funcione como un reloj suizo. La tarea es más ardua: negociar soberanía tecnológica, diseñar procedimientos regulatorios ágiles y dotar a las instituciones del músculo técnico y la independencia necesarios.
Hasta que ello suceda la IA volará como un jet y las normas actuarán como parches aritméticos lanzados a una velocidad insuficiente para frenar la corriente. Lo relevante será que podamos estructurar una red de contención democrática que impida que el vuelo algorítmico se transforme en dominio absoluto. Si no lo logramos, no habremos perdido sólo un pleito legal: habremos cedido un nuevo espacio de poder a quienes manejan los engranajes invisibles que hoy definen -y muy pronto gobernarán- buena parte de nuestra vida colectiva.
Abogado, consultor e investigador en Derecho Digital, Data Privacy e IA; profesor Facultad de Derecho UBA y Austral






