Daniel Low, experto argentino en Inteligencia Artificial en Harvard: “En la carrera por la IA hay una cuestión geopolítica además de económica”
El investigador argentino explica el impacto del desarrollo de la empresa DeepSeek y por qué la competencia entre EE.UU. y China “es el clásico escenario de carrera armamentística”
10 minutos de lectura'

El 27 de enero los inversores globales vendieron suficientes acciones de empresas tecnológicas estadounidenses líderes en el desarrollo de la inteligencia artificial (IA) como para desplomar el valor de sus acciones unos cuantos puntos y causar la mayor pérdida de valor en un solo día para cualquier empresa en Wall Street.
El descalabro se debió a la irrupción de un modelo de IA con capacidades similares a las de las grandes tecnológicas pero de un origen distinto. DeepSeek, una empresa china que asegura haber desarrollado su producto con una fracción de la inversión inicial de sus competidores. Y otra gran diferencia.
El argentino Daniel Low, investigador postdoctoral de la Universidad de Harvard especializado en IA para aplicaciones de psicología, explicó en diálogo con LA NACION las múltiples razones del impacto del desarrollo chino. Docente de machine learning en ese prestigioso centro de estudios y co-fundador del Grupo de Interés en Biomarcadores del Habla y el Lenguaje (Speech and Language Biomarker Interest Group) perteneciente a Harvard y el Instituto de Tecnología de Massachusetts (MIT), es especialista en los modelos de lenguaje grandes o LLMs (por sus siglas en inglés), tecnología que permite el funcionamiento de aplicaciones como ChatGPT o DeepSeek.

Aunque empezó su carrera estudiando Letras en Buenos Aires, eventualmente se interesó por las neurociencias y luego por la computación, lo que lo llevó a hacer una maestría en ciencias cognitivas y lingüística computacional en Italia y Países Bajos. En Estados Unidos, su trabajo se centró en el uso del procesamiento del lenguaje natural y el procesamiento del habla para medir y predecir síntomas de salud mental a partir del análisis de datos.
Conocedor tanto de la tecnología implicada como del mercado internacional que gira en torno al desarrollo de esta nueva herramienta, sostiene: “La carrera por la IA es una cuestión geopolítica además de económica”.
-¿Qué diferencia el sistema de DeepSeek de los ya conocidos cómo ChatGPT (OpenAI) y Gemini (Google)? ¿Por qué es más barato?
-OpenAI, Google, Anthropic, todos están más o menos al mismo nivel y son parecidos. Algunos llegaron antes al mercado y entonces dominaron, por eso seguramente todos usamos más ChatGPT, por ejemplo. Hasta ahora todos los mejores modelos venían siendo privados. Y después hay miles y miles de modelos open source, que quiere decir que son públicos, uno se puede descargar el modelo y correrlo en computadoras personales o supercomputadores, pero no solían funcionar tan bien, hasta que llegó DeepSeek R1. DeepSeek R1 logró la performance de los modelos más avanzados como GPT-4o, y no sólo eso. También estuvo a la altura de o1, que es un modelo de razonamiento para problemas más difíciles, como los de matemática y programación, y lo sorprendente fue que lo logró con muchos menos microprocesadores o ‘chips’ que OpenAI.
-¿Por qué la novedad de DeepSeek afectó particularmente a una empresa como Nvidia?
-Nvidia es una empresa de tecnología que produce la gran mayoría de los mejores microprocesadores del mercado. Sin llegar a ser un monopolio, es cierto que casi todos los mejores modelos de IA están corriendo sobre chips de Nvidia. DeepSeek fue el primero que logró llegar a ese nivel de performance con un modelo más chico, con mucho menos dinero invertido para entrenar el modelo, con muchos menos chips. Esto mostró que no hace falta invertir tanto en OpenAI, no hace falta invertir tanto en Google, porque ya no tienen el secreto de cómo armar estos modelos. La diferencia es que DeepSeek ofreció el modelo gratis públicamente, lo hizo open source. También demostró que el valor de Nvidia no es tal, porque se pensaba que Nvidia no iba a dar abasto para satisfacer el mercado, pero ahora la demanda podría decaer. La pregunta que surge ahora es por qué le están dando miles de millones de dólares a OpenAI y a estas otras empresas cuando una empresa por una fracción de esa inversión logró el mismo resultado. A DeepSeek R1 supuestamente le salió más o menos seis millones de dólares entrenar el modelo, seguramente un poco más. Y a OpenAI le salió 10 o 100 veces más entrenar sus últimos modelos, aunque las cifras exactas no se conocen y se discuten. Es decir, DeepSeek con mucho menos logró algo parecido.

-Si el modelo de DeepSeek es open source, y por ende su competencia estadounidense y mundial tiene acceso a los mismos desarrollos, ¿por qué tiemblan las empresas norteamericanas? ¿No podrían hacer uso de sus mayores capacidades de inversión para seguir desarrollando sobre estos avances?
-El miedo es que avance rápido en China en particular. No se sabe si el gobierno podría usar IA para tratar de recabar datos sin consentimiento, desarrollar la IA para influir en la política o para controlar y accionar armas automatizadas, por ejemplo. Hay una carrera y creo que todos los países quieren ser los primeros en llegar para poder dominar a otros países si hiciera falta y también para entender la tecnología antes. Es una cuestión geopolítica además de económica. El tema es que DeepSeek es una empresa, pero no se sabe qué relación tiene cada empresa con el gobierno [de Xi Jinping] y qué acceso tiene el gobierno a los desarrollos de cada empresa. Tampoco se sabe el impacto nocivo que puede tener el desarrollo de IA en los seres humanos, además de un impacto medioambiental muy preocupante. Hay una investigadora muy importante que se llama Timnit Gebru que de hecho la echaron de Google por mostrar preocupaciones éticas con estos algoritmos hace un par de años.
-En ese sentido, ¿cómo es la situación regulatoria en Estados Unidos? ¿No hay miedo de que el gobierno estadounidense sea quien lleve adelante esas iniciativas?
-No sé si hay un interés en regular la IA del gobierno de Estados Unidos. Son los investigadores de universidades y algunas empresas u ONG que están intentando regular esto. El gobierno anterior [de Joe Biden] tuvo algún interés, el gobierno actual [de Donald Trump] parece que no. Hay un montón de discusión en ciencias políticas, en computación, en salud -a lo que me dedico yo- sobre cómo se va a usar esta tecnología para bien y para mal. Pero la realidad es que la innovación es tan rápida que el argumento de muchos, incluyendo Elon Musk hace un par de años, es que hay que frenar el avance porque no sabemos qué consecuencias tendrá. No habría suficiente tiempo para frenar algunas consecuencias, entonces mejor frenar las cosas un poco. Ahora el argumento es que si ellos frenan la competencia en Estados Unidos, China no va a frenar. Entonces si obligás a todos a frenar, es una situación, pero si no hay una regulación que se aplique a todos es diferente. Estados Unidos quiere competir con China. Es el clásico escenario de carrera armamentística. También se debería plantear si deberíamos tomar otro paradigma por completo y pensar que todos los miles de millones de dólares que se están invirtiendo en IA se podrían invertir en resolver cuestiones muy puntuales en Estados Unidos y el mundo que no involucren IA.

-Más allá de los usuarios individuales, ¿por qué genera tanta expectativa económica la IA?
-Mientras que muchas innovaciones del pasado fueron más lentas y solían ser más de nicho, o sea tener un impacto en un grupo de gente en particular, la IA actual tiene un impacto a nivel global en muchas áreas; educativas, profesionales, en salud, en armamento. Estamos hablando de arquitectura, economía, ciencia, ingeniería. A diferencia de la IA tradicional, que se desarrollaba para un área específica, como traducir por ejemplo, ahora estos modelos nuevos pueden hacer muchas cosas diferentes. El modelo que logre hacer más cosas mejor es el modelo que se usará para armar otras empresas para todo lo que veníamos nombrando. Entonces, cuando una empresa logra un modelo de estos hay muchas oportunidades de negocios y cada vez que una empresa en cualquiera de esos rubros usa un modelo de IA, la empresa que lo desarrolló cobra una fracción de centavo, pero que si lo escalas son millones de dólares potenciales de ganancia.
-Una nota de The New York Times dice que DeepSeek no fue desarrollado para “razonar” de la misma manera que OpenAI, y que había lanzado su propio modelo de razonamiento llamado DeepSeek R1, ¿tiene DeepSeek otra forma de ‘entrenar’ su IA?
-DeepSeek mostró varias diferencias con la competencia. Por un lado, los desarrolladores hicieron cambios en el algoritmo para que pueda aprender más rápido. Estos modelos suelen preguntarles a humanos, al final de los procesos, qué les parece la respuesta que ofrecieron, y en base a eso aprender de ese feedback. Este es un algoritmo de aprendizaje que se llama reinforcement learning, o aprendizaje por refuerzo, que va corrigiendo las respuestas en base a la satisfacción del ser humano. Acá lo que se innovó es que el feedback no venía tanto de humanos, sino de textos de razonamiento ya existentes de matemática, lógica y progamación, y de textos de razonamiento generados por otros modelos. Entonces, a partir de esto, el modelo de DeepSeek tiene una base de datos muy grande de razonamiento y logra generar respuestas con mayor precisión sin tanta necesidad de involucrar humanos después de una primera etapa de entrenamiento. Por otro lado, DeepSeek R1 logra ser un poco más eficiente en seleccionar, de los muchos modelos que integran el modelo macro que ofrecen, qué parte usar en determinado momento y para determinada tarea. Es decir, todos estos modelos funcionan en base a unos parámetros para seleccionar las respuestas correctas. Qué cantidad del modelo usar para cada interacción que estás teniendo: en eso logra ser más eficiente, en usar menos del modelo total. Esto implica que pueda correr más rápido. Entonces, es más eficiente porque aprende más rápido usando un mejor método de entrenamiento con menos chips, y también innovaron en cómo usar los chips de manera más eficiente. Quizás no es una innovación descomunal, simplemente son unos trucos parecidos a los que ya existían para usar un modelo de manera más eficiente que significa que lo podés entrenar y correr más barato. Y hacerlo público generó la mitad de la polémica, ¿no?
-¿Que tan novedoso es su método? ¿Abre la posibilidad a competidores más pequeños de insertarse en el mercado?
-Las diferencias, en resumen, serían un costo de entrenamiento más barato, que lo hicieron open source, y hacer que el modelo tenga tan buenos resultados con un modelo que usa menos parámetros en determinado momento, o sea que corre más rápido. Fueron lindas innovaciones, pero no sé si fue algo revolucionario a nivel técnico. Pero lograron hacerlo más chico y amenazaron el dominio de Estados Unidos, de cuatro empresas. Eso está cambiando el paradigma de lo que pasará de acá a los próximos años. De todos modos, es increíble que se haya logrado esto, yo pasé todo mi doctorado usando modelos mucho más simples. Pero al mismo tiempo, no es como en las películas, donde la IA tiene una conciencia. Aunque quizás no falte tanto.
- 1
Acuerdo de paz Rusia-Ucrania: qué se sabe de las negociaciones de Trump con Putin y Zelensky
2Accidente del Tren Interoceánico en México deja 13 muertos y casi 100 heridos
3La fascinante historia del irlandés que pasó 61 días enterrado en un ataúd
- 4
Recrudece la ola de violencia sectaria en Siria a un año de la caída de Bashar al-Assad





