Su auge podría terminar siguiendo el mismo camino que revoluciones tecnológicas anteriores
6 minutos de lectura'

Las opiniones sobre la inteligencia artificial se distribuyen en un espectro bastante amplio. En un extremo está la visión utópica de que la IA generará un crecimiento económico desbordante, acelerará la investigación científica y quizás haga inmortales a los seres humanos. En el otro extremo está la mirada distópica: que la IA provocará pérdidas masivas y repentinas de empleos, desestabilizará la economía e, incluso, que podría volverse incontrolable y eliminar a la humanidad. Por eso resulta llamativo un paper publicado este año por Arvind Narayanan y Sayash Kapoor, dos científicos de la computación de la Universidad de Princeton, que aborda la IA de una manera poco convencional: como una “tecnología normal”. El trabajo generó un intenso debate entre investigadores de IA y economistas.
Tanto las visiones utópicas como las distópicas, escriben los autores, tratan a la IA como una inteligencia sin precedentes con capacidad de decidir su propio futuro, lo que vuelve inútiles las analogías con inventos anteriores. Narayanan y Kapoor rechazan esa idea y proponen un escenario más probable: que la IA siga una trayectoria parecida a la de revoluciones tecnológicas pasadas. A partir de ahí analizan qué implicaría eso para la adopción de la IA, el empleo, los riesgos y las políticas públicas. “Ver a la IA como una tecnología normal lleva a conclusiones muy distintas sobre cómo mitigar riesgos que verla como algo parecido a lo humano”, señalan.
Los autores argumentan que el ritmo de adopción de la IA viene siendo más lento que el de la innovación. Mucha gente usa herramientas de IA de vez en cuando, pero en Estados Unidos la intensidad (medida en horas de uso diario) todavía es baja en relación con el total de horas de trabajo. Que la adopción vaya detrás de la innovación no sorprende: a las personas y a las empresas les lleva tiempo adaptar hábitos y formas de trabajo a las nuevas tecnologías. Además, la adopción se frena porque gran parte del conocimiento es tácito y específico de cada organización, porque los datos no siempre están en el formato adecuado y porque su uso puede estar restringido por regulaciones. Algo parecido pasó hace un siglo, cuando las fábricas se electrificaron: llevó décadas, porque hubo que repensar de cero los diseños de planta, los procesos y las estructuras organizacionales.
También las limitaciones al ritmo de la innovación en IA pueden ser más importantes de lo que parece, sostiene el paper, porque muchas aplicaciones (como el desarrollo de fármacos, los autos autónomos o incluso la simple reserva de un viaje) requieren pruebas exhaustivas en el mundo real. Eso puede ser lento y costoso, sobre todo en sectores críticos para la seguridad y fuertemente regulados. Como resultado, los impactos económicos “probablemente sean graduales”, concluyen los autores, y no una automatización abrupta de una gran porción de la economía.
Incluso una difusión lenta de la IA modificaría la naturaleza del trabajo. A medida que más tareas se vuelvan automatizables, “un porcentaje creciente de los empleos humanos estará relacionado con el control de la IA”. La analogía acá es con la Revolución Industrial, cuando los trabajadores pasaron de hacer tareas manuales, como tejer, a supervisar las máquinas que las realizaban, y a intervenir cuando éstas se trababan. Más que “robarse” los empleos, la IA podría llevar a que los trabajos consistan cada vez más en configurar, monitorear y controlar sistemas basados en IA. Sin supervisión humana, especulan Narayanan y Kapoor, la IA puede resultar “demasiado propensa a errores como para tener sentido económico”.
Eso, a su vez, tiene implicancias para los riesgos de la IA. Llama la atención que los autores critiquen el énfasis puesto en la “alineación” de los modelos de IA, es decir, los esfuerzos por garantizar que sus resultados estén en línea con los objetivos de sus creadores humanos. Señalan que muchas veces si un resultado es dañino o no depende de un contexto que los humanos entienden, pero el modelo no. Un modelo que redacta un mail persuasivo, por ejemplo, no puede saber si ese mensaje se usará para marketing legítimo o para un phishing malicioso. Intentar crear un modelo de IA que no pueda ser mal usado “es como intentar fabricar una computadora que no pueda ser usada para cosas malas”, escriben. En cambio, proponen, las defensas contra el mal uso de la IA (por ejemplo, para crear malware o armas biológicas) deberían concentrarse más abajo en la cadena, fortaleciendo las medidas ya existentes de ciberseguridad y bioseguridad. Eso además aumenta la resiliencia ante amenazas de esos tipos que no involucren IA.
Terminator es ficción
Ese enfoque sugiere una serie de políticas para reducir riesgos y aumentar la resiliencia. Entre ellas: protección a denunciantes (como en muchas otras industrias), obligación de revelar cuándo se usa IA (similar a la protección de datos), registro de despliegue (como con autos y drones) e informes obligatorios de incidentes (como con los ciberataques). En resumen, el paper concluye que las lecciones de tecnologías anteriores pueden aplicarse de manera productiva a la IA—y que tratarla como “normal” conduce a políticas más sensatas que verla como una superinteligencia inminente.
El paper no está libre de fallas. Por momentos suena a un alegato contra la exageración en torno a la IA. Se dispersa en algunos pasajes, presenta creencias como hechos y no todos sus argumentos convencen—aunque lo mismo pasa con los discursos utópicos y distópicos. Incluso los pragmáticos de la IA pueden sentir que los autores son demasiado livianos al considerar el potencial de disrupción laboral, subestiman la velocidad de adopción, desestiman en exceso los riesgos de desalineación y engaño, y confían demasiado en la regulación. Su predicción de que la IA no podrá “superar significativamente a humanos entrenados” en tareas de pronóstico o persuasión parece demasiado segura. Y aun si los escenarios utópicos y distópicos son incorrectos, la IA todavía podría ser mucho más transformadora de lo que describen.
Pero muchas personas, al leer este rechazo al “excepcionalismo” de la IA, asentirán con la cabeza. La postura intermedia es menos dramática que las predicciones de un inminente “despegue rápido” o de un apocalipsis, así que suele recibir poca atención. Por eso los autores creen que vale la pena plantearla: porque piensan que “alguna versión de nuestra mirada es ampliamente compartida”. En medio de las preocupaciones actuales sobre la sostenibilidad de la inversión en IA, su paper ofrece una alternativa refrescantemente aburrida frente a la histeria sobre el tema.
1Del sueño europeo a la incertidumbre: la familia argentina que quedó atrapada por un cambio de las leyes migratorias
2Con el aguinaldo: qué día cobro mi jubilación en diciembre
3Eben Etzebeth, estrella de la selección de rugby de Sudáfrica, fue suspendido por la World Rugby
4Los votos opositores que le allanaron el camino a Axel Kicillof para lograr el endeudamiento




