Entrevistas y documentos recopilados por The New Yorker revelan un perfil desconocido del creador de OpenAI, la compañía detrás de ChatGPT
4 minutos de lectura'
En una de las reuniones secretas de los principales ingenieros de OpenAI, alguien recordó un sketch de los humoristas británicos Mitchell and Webb en el que un soldado nazi, en un raro instante de lucidez, mira a su alrededor y pregunta: “¿Somos nosotros los malos?”. La escena que parece una broma incómoda, condensa un miedo que late dentro de esa empresa desde hace tiempo: si quien prometió construir una inteligencia artificial segura para beneficio de la humanidad no se convirtió en una nueva máquina de poder, dinero y oscuridad.
El lunes 6 de abril, The New Yorker publicó un perfil de Sam Altman firmado por Ronan Farrow y Andrew Marantz tras un año de investigación que pone esa pregunta en el centro del debate.
En el artículo, se confirman con hechos y anécdotas reconstruidas hasta el mínimo detalle algo que muchos ya sospechábamos: Altman parece alguien capaz de decir cosas distintas según quién esté enfrente, prometer límites que después se evaporan y presentar como compromiso ético lo que en la práctica funciona como estrategia de expansión.
Lo que deja más preocupado tras la lectura no es solo que mienta en episodios puntuales, sino que convirtió esa elasticidad con la verdad en su método de liderazgo.
Un espacio donde ese doble juego se ve claramente es la regulación de la IA. Altman construyó parte de su prestigio político con un discurso de prudencia: dijo que la IA debía ser regulada, que si salía mal podía salir “muy mal” y hasta propuso una nueva agencia federal para supervisar modelos avanzados.
Todo esto cuadró muy bien con un momento en que la opinión pública global había pasado de idolatrar a los dueños de las redes y plataformas sociales a empezar a desconfiar de sus mentiras, del daño que podían estar haciendo y a pedir regulaciones claras.
Pero el problema es que Altman no estaba siendo sincero y, mientras en público cultivaba esa imagen de empresario responsable, OpenAI hacía lobby para debilitar regulaciones concretas. El artículo documenta de forma extensa cómo presionó para diluir controles en Europa y combatió en California proyectos que imponían pruebas obligatorias de seguridad. La empresa rechazaba esas iniciativas en público y, en privado, operaba con aliados, amenazas y hasta citaciones judiciales contra quienes impulsaban esos límites.
La relación con la política estadounidense también muestra una notable capacidad de adaptación al poder. Durante la administración de Joe Biden, Altman fue un interlocutor frecuente de la Casa Blanca y colaboró en la elaboración de la orden ejecutiva que fijó los primeros guardrails federales para la IA. Pero después, con la caída política de Biden y el regreso de Donald Trump, Altman giró con rapidez. Donó al fondo de asunción, elogió públicamente al nuevo presidente y pasó a integrarse al nuevo esquema de poder tecnológico.
El movimiento no fue solo simbólico. En el segundo día de gobierno, Altman apareció en la Sala Roosevelt para anunciar Stargate, una empresa conjunta de US$500.000 millones para infraestructura de IA en Estados Unidos.
Todo esto sucede mientras OpenAI se prepara para una posible salida a bolsa en medio de advertencias sobre una burbuja. La empresa se sostiene sobre una escala de gasto descomunal, alianzas cruzadas, deuda, expectativas exorbitantes y una promesa casi mesiánica sobre el futuro.
La pregunta, entonces, ya no es solo si Altman exagera o acomoda la verdad. Es si su forma de conducción —decir una cosa en público, negociar otra en privado y convertir cada límite en oportunidad de expansión— no terminó definiendo también el rumbo de toda la industria.
1Un abogado usó la IA en un juicio y presentó casos ficticios, pero el juez se negó a revocar el fallo
2Es el empleado número 8 de Apple, sigue trabajando ahí y recuerda los 50 años de la empresa
3Dos argentinos crearon Genio Contable, una IA que busca simplificar la liquidación de impuestos
4Duelo de titanes de la IA: OpenAI y Anthropic, ante el desafío de cotizar en bolsa y no morir en el intento


