Regulación de la IA: tres modelos, ningún consenso
Estamos en el momento en que se deciden las reglas. No dentro de diez años. Ahora. Y la pregunta de quién las escribe, y para quién, importa más de lo que la mayoría de los gobiernos de la región parece entender.
El mundo llegó a 2026 con tres modelos regulatorios que no se hablan entre sí. Europa construyó el AI Act: desde el 2 de agosto de 2026 cualquier empresa que opere modelos de inteligencia artificial en la Unión Europea enfrenta multas de hasta el 3% de su facturación global si no documenta cómo fueron entrenados sus sistemas, con qué datos, y bajo qué criterios toman decisiones. Es una apuesta seria por la transparencia, con costos reales para la industria.
Estados Unidos eligió lo contrario: en diciembre de 2025, la administración Trump firmó una orden para bloquear regulaciones estaduales, apostando a que la velocidad sin restricciones gana la carrera contra China. La inversión privada americana en IA superó los 110.000 millones de dólares en 2024, cinco veces la europea, según Goldman Sachs.
Y China construye a una escala que todavía no terminamos de procesar: 70.000 millones de dólares en infraestructura de IA solo en 2026, con una startup, DeepSeek, que en enero de 2025 entrenó un modelo de rendimiento comparable al de OpenAI por menos de seis millones de dólares.
Que estos tres modelos sean incompatibles no es un problema técnico. Es un problema de poder. Ningún país está dispuesto a ceder soberanía sobre una tecnología que considera estratégica. La Casa Blanca compara el Proyecto Stargate, 500.000 millones de dólares en infraestructura, con el Proyecto Manhattan.
Cuando la narrativa oficial es esa, la regulación coordinada es imposible. El G20 de 2025 firmó declaraciones sobre desarrollo inclusivo y gobernanza compartida. Nadie creó nada para que eso ocurra.
Lo más probable no es que el mundo llegue a un acuerdo. Lo más probable es que llegue a un accidente. Un fallo masivo de un sistema autónomo, una elección manipulada de forma documentada, algo que haga visible el costo de no tener reglas. Eso es lo que históricamente mueve los marcos regulatorios globales: no la previsión, sino el daño ya hecho. Puede ocurrir entre 2027 y 2029. Quizás antes.
América Latina tiene una ventana que se está cerrando. No necesita copiar el AI Act ni seguir la desregulación americana. Necesita algo propio: un acuerdo regional, empezando por el Mercosur y la Alianza del Pacífico, que establezca al menos tres cosas: qué usos de la IA son inaceptables sin excepciones; qué decisiones que afectan derechos, trabajo, crédito, salud, requieren supervisión humana obligatoria y trazabilidad, y qué le corresponde cumplir a cualquier empresa que opere sistemas de IA en la región, sin importar dónde esté registrada.
Construir eso tiene costos: capacidad institucional que no existe, negociaciones difíciles, resistencia de industrias acostumbradas a operar sin rendir cuentas.
No construirlo también tiene costos, sólo que esos costos los pagan otros: las personas cuyos datos alimentan modelos que no conocen, cuyos empleos son evaluados por algoritmos entrenados en contextos que no son el suyo, cuyas vidas quedan sujetas a decisiones que nadie puede explicar ni impugnar.
La IA no es neutral. Las reglas que la gobiernan tampoco lo son. La pregunta es si vamos a tener algo que decir sobre cuáles son.
Asesor de startups que se dedican a desarrollar IA




