Éric Sadin. "Las tecnologías digitales tienen poder de decisión en nuestras vidas"
Crítico feroz del actual desarrollo de la inteligencia artificial, el pensador francés alerta sobre las posibles consecuencias de delegar en las máquinas aspectos inherentes al quehacer humano
El árbol genealógico de nuestra era digital -y de su vástago rebelde, la inteligencia artificial o IA- es frondoso. Si se siguen sus ramas se pueden divisar, entre los rastros perdidos de miles de hombres y mujeres cuyas historias han quedado en el olvido, figuras disruptivas que van de la matemática victoriana Ada Lovelace a pioneros informáticos como Claude Shannon y Alan Turing, la programadora Grace Hopper y John von Neumann, Vinton Cerf y Tim Berners-Lee, así como el verdadero pater familias de estas tecnologías colonizadoras: Marvin Minsky.
Asesor de Stanley Kubrick en 2001: odisea del espacio, amigo cercano y lector devoto de Isaac Asimov, este científico cognitivo sentó las bases, lanzó la revolución de la IA. Pero no era ingenuo. "Una vez que las computadoras obtengan el control, es posible que nunca lo recuperemos", advirtió en 1970. "Si tenemos suerte, podrían decidir mantenernos como mascotas".
Sin embargo, desde entonces, la cautela cedió ante una especie de fundamentalismo. Emprendedores y evangelizadores de lo digitalización total de la sociedad que asimilan estas tecnologías con un tsunami, un fenómeno casi imposible de contener, pregonan que la IA no dejará nada sin transmutar: el trabajo, la educación, la salud, el deporte, la cultura, hasta nuestra intimidad y sensibilidad.
"La humanidad se está dotando a grandes pasos de un órgano de prescindencia de ella misma, de su derecho a decidir con plena conciencia y responsabilidad de las elecciones que la involucran", alerta el filósofo francés Éric Sadin, un pensador a contracorriente que busca restituir la prudencia en el pensamiento sobre la técnica. Perteneciente a una minúscula pero pujante estirpe de incrédulos, críticos y escépticos usualmente vistos como cascarrabias, el autor de La inteligencia artificial o el desafío del siglo: anatomía de un antihumanismo radical (Caja Negra) no glorifica estas tecnologías. Más bien, les opone la duda; concibe a la IA como una amenaza trascendental para la humanidad.
En su libro habla del "aparato retórico" que rodea las tecnologías digitales y especialmente la IA: eslóganes publicitarios, oraciones sin sentido, la IA como una "fuente de la juventud" o como la "nueva electricidad". ¿Qué papel cree que juegan estos discursos en la instalación de estas tecnologías en la imaginación del público, entre los inversores, entre los políticos?
Los términos que usamos contribuyen a forjar nuestras representaciones. La IA ha sido considerada, desde principios de la década de 2010, la cuestión económica más decisiva en la que conviene invertir de forma masiva. Además de las empresas, también son los Estados los que movilizan todos los medios necesarios para estar a la vanguardia. Todos están haciendo de este objetivo una gran causa nacional. A la vanguardia se encuentran Estados Unidos y China, pero también una serie de países en América del Sur, Europa y Asia. Esta exaltación frente a las amplias perspectivas anunciadas genera una profusión de discursos. Probablemente nunca se han dicho tantas tonterías a propósito de un fenómeno tan determinante.
¿Por qué?
Es la gran embriaguez de la época. Entendemos que se están desarrollando transformaciones decisivas pero en lugar de trabajar, como deberíamos, en comprender las apuestas y todas las consecuencias involucradas, dejamos que se expresen personas que se erigen como expertas sin cuestionarlas. La mayoría de ellas está impulsada por sus propios intereses. Y se las arreglan para forjar una doxa, una opinión -especialmente con los políticos- de que la IA representa el horizonte económico brillante e inevitable de nuestro tiempo y que "no debemos perder el tren de la historia". En contraste con toda esta aceleración, y dado el alcance de las consecuencias para nuestra civilización, es imperativo que estas cuestiones sean objeto de debates acordes con los riesgos que acarrean. No es lo que está sucediendo en la actualidad.
¿Sería entonces necesario una teoría crítica de la IA?
Nos falta de modo brutal. Lo que caracteriza la IA es que es un recurso de conocimiento que se perfecciona constantemente. Los sistemas son ahora capaces de analizar situaciones de orden cada vez más diverso y de revelarnos estados de cosas, algunos de los cuales son ignorados por nuestra conciencia. Y lo hacen a velocidades que exceden nuestras capacidades cognitivas en un grado sin precedentes. Estamos experimentando un cambio en el estatus de las tecnologías digitales: ya no están simplemente destinadas a permitirnos manipular la información con diversos propósitos, sino a revelar la realidad de los fenómenos más allá de las apariencias.
Usted ha señalado que la IA está conduciendo al destierro progresivo de los humanos. ¿En qué se basa?
Los resultados de sus análisis tienen un valor de verdad en la medida en que, a partir de ellos, se toman determinadas medidas. La IA es un fenómeno único en la historia de la humanidad, en el que se utilizan técnicas para decirnos que actuemos de una manera particular. Esto puede variar desde un nivel moderado e incentivador como en el caso de una aplicación de entrenamiento deportivo que, por ejemplo, sugiere tal o cual suplemento dietético, hasta un nivel prescriptivo en el caso de la industria de la contratación o reclutamiento, que ahora utiliza sistemas numéricos que por sí mismos seleccionan los candidatos. Esto puede llegar hasta una dimensión coercitiva en los lugares de trabajo donde los sistemas dictan continuamente al personal los gestos "buenos" a realizar, basados en prácticas que niegan la subjetividad y desprecian la dignidad de las personas. Las tecnologías digitales pasaron de ser herramientas de apoyo a tener un tremendo poder de decisión en nuestras vidas. En cierto modo, cada vez les daremos menos instrucciones a las máquinas para en su lugar recibir órdenes de ellas. El libre ejercicio de nuestra facultad de juicio está siendo reemplazado por protocolos diseñados para guiar y enmarcar nuestras acciones. ¿Acaso no vemos la ruptura jurídico-política que se está produciendo?
En cierta manera, la ficción -en particular, la ciencia ficción- ha influenciado el desarrollo científico y tecnológico moderno: la exploración espacial no se puede pensar sin las obras de Bradbury, Clarke, Asimov. ¿Cómo piensa que los libros, películas y series de este género como Westworld o distopías como Black Mirror influyen en el caso de la IA?
Históricamente, la ciencia ficción ha desarrollado dos posturas distintas. Una de ellas manifiesta un entusiasmo por las máquinas y el futuro, del que Jules Verne sería el gran representante. La otra ha producido obras críticas y distópicas con respecto a la tecnología. En mi opinión, lo que caracteriza las obras recientes es que, aunque ciertamente muestran una dimensión inquieta, a menudo utilizan esquemas bastante simplistas y muy generales, mientras juegan sin cesar con los mismos clichés: el miedo al reemplazo, el sometimiento de los humanos, la adicción a las tecnologías... Además, se olvida rápidamente que el propósito de estas producciones es sólo generar beneficios. Por ello, sería sensato releer hoy los escritos de Theodor W. Adorno y Max Horkheimer sobre la industria cultural para comprender hasta qué punto su supuesta dimensión crítica es solo una fachada, solo responde a un aire de la época y participa plenamente en el mecanismo que pretende denunciar. En mi opinión, lo que necesitamos hoy en día es una "ciencia ficción de lo cotidiano" que examine lo que estos sistemas técnicos concretamente modifican en nuestras vidas, en el presente y posiblemente en el futuro. Pienso en las prácticas desarrolladas en los negocios, la medicina, la justicia, la educación, etcétera. O en la exploración de casos concretos, para arrojar luz, dentro del régimen de la ficción, sobre ciertas dimensiones ya en funcionamiento y en ciernes, pero que todavía están demasiado oscurecidas. Es una tarea completamente diferente dejar que Netflix, por ejemplo, produzca series cuya supuesta dimensión crítica a menudo adquiere proporciones espectaculares y que en última instancia solo buscan provocar una creciente adicción por parte de los suscriptores, cuyo comportamiento es continuamente examinado por los algoritmos. En mi opinión, es hora de que este modelo y la emoción que despierta sean finalmente sometidos a una crítica lúcida.
¿Cómo cree que la pandemia influirá en el desarrollo de la IA? ¿Considera que los disturbios raciales relacionados con el asesinato de George Floyd en Estados Unidos van a producir algún cambio? IBM, por ejemplo, ha anunciado que abandonará las investigaciones sobre reconocimiento facial, una tecnología criticada por sus sesgos racistas y por invadir la privacidad.
En Historia de la locura en la época clásica, Michel Foucault afirma que las epidemias constituyen el fenómeno por excelencia capaz de pulverizar nuestras fantasías modernistas de control absoluto. Y esto se ha visto en el marco de la actual pandemia. También ha quedado expuesta una de las grandes estafas de la época: durante décadas se ha postulado que la medicina se iba a beneficiar plenamente de los avances de la IA. Muchos acogieron con satisfacción el diagnóstico automatizado, como si los médicos ya no supieran hacer diagnósticos fiables y necesitaran ser desterrados. Lo que estamos viendo con la crisis del Covid-19 no es la necesidad de introducir tales sistemas, sino las flagrantes dificultades del hospital público, la falta de personal y de camas, la dificultad de proporcionar una atención de calidad dados los medios insuficientes. Es así imperativo que la sociedad civil se oponga a todos estos tecno-discursos de supuestos expertos altamente remunerados, que se jactan constantemente de un futuro fantástico y sólo responden a intereses privados. Contribuyen a contaminar la vida pública y a despreciar el interés general.
Desde el siglo XIX, pensadores como Henri de Saint-Simon y y luego Jacques Ellul y Lewis Mumford han pensado en la ciencia y la tecnología como nuevas religiones. Los eventos de Apple y de SpaceX parecen misas: asisten fans como si fueran creyentes y figuras como Elon Musk, Tim Cook, Mark Zuckerberg y otros ofician de sacerdotes. ¿Cómo defender el humanismo y las ideas que señala en su libro contra este fanatismo tecnorreligioso?
En su momento, sociólogos como Mumford y Ellul supieron desenmascarar el complejo técnico-industrial de posguerra, que se esforzaba constantemente en intensificar las lógicas productivistas, construir métodos de organización cada vez más optimizados y movilizar presupuestos masivos para los ámbitos militares, contribuyendo a imponer sus decisiones a la sociedad sin el consentimiento informado de sus miembros. No es casualidad que estas obras lúcidas y bien argumentadas, situadas deliberadamente contra la corriente, no hayan sido bien recibidas. Lo que hace que su tiempo sea diferente al nuestro es que, desde entonces, se han cruzado los umbrales. Las tecnologías digitales ahora están destinadas a largo plazo a interferir en todos los ámbitos de nuestras vidas. También buscan influir en el comportamiento; se pretende que guíen la acción humana. Finalmente, la tecnología, como un campo relativamente autónomo, ha desaparecido. Ahora solo hay un mundo tecnocientífico subordinado a las autoridades económicas que dictan los caminos a seguir. La velocidad de los acontecimientos, que se presentan como inevitables, nos hace sentir impotentes. Mientras los evangelistas de la automatización del mundo siguen emprendiendo, nos encontramos como si nos golpeara la apatía. En primer lugar, es necesario contradecir los tecnodiscursos y aportar testimonios de la realidad sobre el terreno, donde estos sistemas funcionan, en el lugar de trabajo, en las escuelas, los hospitales, los tribunales... También debemos mostrar nuestro rechazo a ciertos dispositivos cuando se considera que violan nuestra integridad y dignidad. Contra esta embestida antihumanista, hagamos prevalecer una ecuación simple pero intangible: cuanto más se espera que renunciemos a nuestro poder de acción, más debemos actuar.