NUEVA YORK.- El diccionario de la Real Academia Española define la “caja de Pandora” como “toda acción o decisión de la que, de manera imprevista, derivan consecuencias desastrosas”. Últimamente pienso mucho en las cajas de Pandora, porque el homo sapiens está haciendo algo que nunca había hecho: levantar la tapa de dos enormes cajas de Pandora al mismo tiempo, sin la menor idea de lo saldrá volando.
Una de esas cajas tiene una etiqueta que dice “inteligencia artificial”, cuyos mejores ejemplos son los bots conversacionales tipo ChatGPT, Bard y AlphaFold, primer testimonio de la capacidad de la humanidad para inventar algo, a la manera de Dios, que se acerca a la inteligencia general y que excede ampliamente el poder cerebral que desarrollamos evolutivamente de manera natural.
La otra caja de Pandora tiene una etiqueta que dice “cambio climático”, con el que por primera vez los humanos nos estamos empujando, a la manera de Dios, de una era climática a otra. Hasta ahora, ese era un poder básicamente restringido a las fuerzas naturales que empujan la Tierra en su órbita alrededor del Sol.
Y mientras abrimos ambas cajas en simultáneo, la primera gran pregunta que me surge es la siguiente: ¿Qué tipo de regulaciones y de ética debemos aplicar para manejar eso que sale rugiendo de la caja?
Más vale admitirlo: nunca entendimos hasta qué punto las redes sociales serían usadas para erosionar, la verdad y la confianza, pilares gemelos de cualquier sociedad libre. Así que si abordamos el tema de la inteligencia artificial generativa con esa misma inconsciencia -si una vez más le seguimos el tren a Mark Zuckerberg y su irresponsable mantra de los inicios de las redes sociales de “moverse rápido y romper todo”-, ¡mamita!, ahí sí que vamos a romper todo, más rápido y definitivamente.
“Cuando lanzaron las redes sociales, primero hubo falta de imaginación para prever las consecuencias, y después, falta de responsabilidad para responder a la impensada penetración de las redes en las vidas de miles de millones de personas”, dice Dov Seidman, fundador y presidente del Instituto para la Sociedad HOW y de la consultora de ética corporativa LRN. “Perdimos el rumbo y desperdiciamos mucho tiempo con el pensamiento utópico de que las redes sociales solo podían generar cosas buenas, como simplemente ‘conectar’ a la gente y darles una canal para expresarse. Con la inteligencia artificial no podemos permitirnos un error semejante.”
En consecuencia, “tanto desde lo ético y como desde lo normativo es imperativo que la tecnología de IA solo se utilice para complementar y elevar lo que nos diferencia como humanos: nuestra creatividad, nuestra curiosidad y, en el mejor de los casos, nuestra capacidad de esperanza, de ética, de empatía, de determinación y colaboración con los demás”, agrega Seidman.
“El viejo adagio de que todo gran poder conlleva una gran responsabilidad nunca ha sido más cierto. No hay margen para otra generación de tecnólogos que proclamen su neutralidad ética y nos digan ‘no somos más que una plataforma’, mientras esos sistemas de IA habilitan formas exponencialmente más potentes y profundas de empoderamiento e interacción humana”, apunta Seidman.
Audacía y responsabilidad
Por eso quise entrevistar a James Manyika, director del equipo de tecnología y sociedad de Google y de Google Research, donde se desarrolla gran parte de la innovación en IA, para saber lo que piensa de las promesas y desafíos que entraña la inteligencia artificial.
“Tenemos que ser audaces y responsables al mismo tiempo”, apunta de entrada Manyika.
“La razón para ser audaces es el potencial de la IA para ayudarnos con las tareas cotidianas y para abordar algunos de los mayores desafíos de la humanidad, como la atención médica, realizar nuevos descubrimientos científicos y mejoras de productividad que conducirán a una mayor prosperidad económica.”
Y eso lo hará “dándoles acceso a la suma del conocimiento humano a personas de todo, en su propio idioma, en su modo de comunicación preferido, en texto, voz, imágenes o código”, a través de un celular, la televisión, la radio o un libro electrónico, donde obtendrán la mejor ayuda y las mejores respuestas para mejorar sus vidas.
Pero también debemos ser responsables, agrega Manyika, y menciona varias de sus preocupaciones. Para empezar, esas herramientas deben estar completamente alineadas con los objetivos de la humanidad. En segundo lugar, en las manos equivocadas, pueden causar un daño enorme, ya sea con desinformación, falsificaciones o piratería informática.
Finalmente, “la ingeniería solo está por delante de la ciencia hasta cierto punto”, explica Manyika. O sea que ni siquiera las personas que construyen esos llamados “modelos de lenguaje grande” que son la base de ChatGPT y Bard entienden cabalmente cómo funcionan ni el alcance total de su capacidad. Podemos diseñar sistemas de IA extraordinariamente capaces, a los que se les pueden mostrar algunos ejemplos de aritmética, un lenguaje raro, o la explicación de un chiste, y luego con solo esos fragmentos empiezan a hacer cosas parecidas asombrosamente bien. En otras palabras, señala Manyika, todavía no entendemos todo lo bueno y lo malo que pueden hacer esos sistemas.
Por lo tanto, necesitamos algún tipo de regulación, pero debe hacerse con cuidado y de forma diferenciada: para este tipo de cosas no hay “talle único”.
¿Por qué? Bueno, si lo que más nos preocupa es que China le gane a Estados Unidos en materia de IA, entonces querremos fomentar la innovación en IA, y no ralentizarla. Si lo que queremos realmente es democratizar la IA, entonces tal vez queramos que sea de código abierto. Pero un código abierto puede ser explotado para muchos fines. ¿Qué haría el terrorismo con ese código? Entonces también habría que pensar en el control de armas. Y si lo que nos preocupa es que los sistemas de IA profundicen la discriminación, las violaciones a la privacidad y otros problemas graves de la sociedad, como lo hacen las redes sociales, habría que regularlos ya mismo.
Si lo que queremos es aprovechar todas los beneficios de productividad que se espera que genere la IA, habrá que concentrarse en crear nuevas oportunidades y redes de contención social para los millones de empleados administrativos, investigadores, asesores financieros, y trabajadores rutinarios que podrían ser reemplazados, incluso los propios codificadores. Y si nos preocupa que la IA se vuelve superinteligente y empiece a definir sus propios objetivos, independientemente del daño humano, lo que querremos será abortar de inmediato su desarrollo.
Este último peligro es tan real que el lunes renunció a su cargo en Google uno de los pioneros de la IA, Geoffrey Hinton, diciendo que la empresa se estaba comportando de manera responsable al inocular tecnología de IA en sus productos y que renunciaba para poder hablar con libertad sobre todos esos riesgos. “No veo la forma de prevenir que actores malintencionados lo usen para hacer daño”, le confeso Hinton a The New York Times.
Si sumamos todo, el mensaje es el siguiente: nosotros, como sociedad, muy pronto tendremos que decidir sobre algunas importantes compensaciones a medida que introducimos la IA generativa.
Y con la regulación estatal por sí sola no alcanza. El cálculo es simple: cuanto más rápido sea el ritmo del cambio y más poderes divinos desarrollemos los humanos, más importante será todo lo viejo y lo lento, y más importará todo lo que hayamos aprendido en la escuela, en nuestros hogares, o dónde sea que nos hayamos formado éticamente.
Cuanto más fuerte sea la IA, más habrá que reforzar la regla de oro: no hacerles a los demás lo que no nos gustaría que nos hagan a nosotros. Porque dados los poderes cuasi divinos que estamos desarrollando, las cosas que podemos hacernos unos a otros son cada vez más rápidas, más baratas y más profundas que nunca.
Crisis climática
Lo mismo ocurre con la caja de Pandora climática. Como explica la NASA en su sitio web, “En los últimos 800.000 años, ha habido ocho ciclos de glaciaciones y de eras más cálidas”. La última edad de hielo terminó hace unos 11.700 años, dando paso a nuestra era climática actual, conocida como el Holoceno, caracterizada por estaciones fijas que permitieron una agricultura estable, el desarrollo de comunidades humanas y, en última instancia, la civilización tal como la conocemos actualmente.
“La mayoría de esos cambios estacionales responden a variaciones muy pequeñas en la órbita de la Tierra, que modifican la cantidad de energía solar que recibe nuestro planeta”, señala la NASA.
Ya podemos despedirnos de todo eso. Ahora, los ambientalistas y expertos geológicos de la Unión Internacional de Ciencias Geológicas, la organización profesional responsable de definir las eras geológicas/climáticas de la Tierra, discuten acaloradamente si los humanos nos hemos expulsado a nosotros mismos del Holoceno hacia una nueva era, el Antropoceno, caracterizado por “la contaminación de los océanos y la alteración de la atmósfera, entre otros impactos duraderos”, según explica un artículo en la revista Smithsonian.
Los científicos del sistema terrestre temen que esta época creada por el hombre, el Antropoceno, no conserve ninguno de los predecibles cambios estacionales del Holoceno. La agricultura podría convertirse en una pesadilla.
Pero ahí es donde la IA podría llegar a salvarnos, acelerando los avances en la ciencia de los materiales, la densidad de la baterías, la energía de fusión y la energía nuclear modular segura, que nos permitan gestionar los impactos del cambio climático que ahora son inevitables y evitar aquellos que serían directamente inmanejables.
Pero si la IA nos permite amortiguar los peores efectos del cambio climático —si la IA, en efecto, nos regala una nueva oportunidad—, esta vez mejor hacer las cosas bien, o sea con regulaciones inteligentes que aceleren la transición a energías no contaminantes y más sustentables. A menos que fomentemos la ética de la conservación, el respeto por la naturaleza en estado salvaje y todo lo que el planeta nos brinda gratuitamente, como aire y agua limpia, corremos el riesgo de terminar en un mundo donde nos sintamos con derecho a atravesar la selva tropical con un tractor, ¡si total es eléctrico! Eso no puede pasar.
En pocas palabras: las tapas de esas dos grandes cajas de Pandora se están abriendo. Dios nos guarde si adquirimos poderes divinos para dividir las aguas del Mar Rojo pero no logramos perfeccionar los Diez Mandamientos.
Traducción de Jaime Arrambide
Más notas de Grandes columnistas del mundo
Más leídas de El Mundo
Antisemistismo. Decisiones “bajo fuego”: las universidades de EE.UU. intentan aplacar las protestas con un combo de medidas disuasorias
Herencias. La Gran Sucesión de los ‘baby boomers’: sus hijos heredarán más riqueza, pero también desigualdad
William Walker. El millonario estadounidense que invadió varios países de América Latina y acabó fusilado
"Solo escriban Giorgia". La decisión estratégica de Meloni para aumentar su influencia en Europa y ratificar quién manda en Italia