Máquinas buenas y malas: la tecnología no siempre trae más eficiencia

Valentín Muro
Valentín Muro PARA LA NACION
Crédito: Shutterstock
(0)
13 de mayo de 2019  • 10:20

"Quizá no siempre lo mejor sea optimizar", dije frente a un puñado de personas que me miraban algo atónitas. Era un contexto extraño para soltar tal improperio: bajo el marco del Plan Nacional de Inteligencia Artificial que el gobierno nacional impulsa desde el año pasado discutíamos en una mesa de trabajo acerca de las implicancias éticas de la implementación de sistemas de inteligencia artificial.

La idea no es en absoluto originalidad mía, claro está. Al mencionarlo recordaba los primeros capítulos de La locura del solucionismo tecnológico (2013) de Evgeny Morozov. Entre sus páginas, y en pleno auge de las tecnologías orientadas a la "disrupción política" y nuevas formas democráticas, el autor exponía una larga serie de argumentos en contra de la sobre-optimización de todo.

"Una democracia ineficiente es siempre preferible a una dictadura eficiente", resumía Morozov en una punzante máxima. Eran otros tiempos: en 2013 hablar acerca de cuestiones como sesgos algorítmicos probablemente suscitara discusiones acerca de errores de generalización y otros asuntos puramente estadísticos. Como señala el computador científico Jimmy Wu: "Solo cuatro o cinco años después, se abrió la compuerta. Los diarios empezaron a publicar largas investigaciones acerca de las cajas negras que despojaban a personas de servicios sociales; los investigadores empezaron a escribir artículos acerca de cómo la precisión predictiva tenía como costo la imparcialidad".

El sueño tecnoutópico se rompió

Hoy en día, arriesgo a costa de sonar optimista, el escepticismo es mayor. La mirada tradicional de que todo aquello computacional es en esencia neutral, objetivo y preciso fue desplazada por una en la que reconocemos que nuestros juguetes matemáticos con facilidad pueden ocultarnos sesgos que van más allá de su eficiencia estadística y que el diseño de sistemas complejos puede esconder las peculiaridades de sus diseñadores y, perdón si alguien se ofende, su cariz ideológico.

En nuestra mesa de discusión rápidamente surgió el problema de hablar acerca de ética cuando se trata de máquinas. Con alguna mención al pasar de las reglas de la robótica de Asimov quedó claro en poco tiempo que cualquier marco nomológico aplicado a las máquinas tiende a quedar corto. Rápidamente la atención viró hacia las dos instancias si no más problemáticas, más obvias: la capa de desarrollo y la capa de implementación.

Considerando que la ética informa el modo en que nosotros, o cualquier ser autónomo, opera en el mundo, debemos partir de las consecuencias de estas acciones. Ni una objeción fue levantada cuando tomé esta postura consecuencialista frente al resto: si algo podemos concederle al utilitarismo es que el cálculo de maximización de utilidad (felicidad, placer, bienestar, lo que sea) es bien afín a cualquier aventura algorítmica. El punto que traté de exponer es que si bien las consideraciones éticas afectan inevitablemente al desarrollo de una tecnología, es en su implementación que las consecuencias pueden ser vislumbradas.

Cómo gobernar a las máquinas que gobiernan

Como insumo para la discusión mencioné el impecable informe del AI Now Institute acerca de cómo evaluar el impacto de los algoritmos sobre lo público, que en su momento analicé en este mismo espacio. Este marco operativo sugiere estrategias claras para la implementación de tecnologías potencialmente invasivas o directamente probadas incompatibles con derechos fundamentales como lo es el flamante sistema de reconocimiento facial inaugurado hace semanas en la Ciudad de Buenos Aires.

Es a partir de las consecuencias de la implementación que podemos identificar aquello que debemos cuidar en su desarrollo. La incorporación de tecnología con el potencial de alterar la vida de cientos de miles sino millones de personas debe ser un proceso iterativo y no lineal. Una primera conclusión de nuestra breve reunión de trabajo se hizo inmediatamente clara: para que las alarmas puedan sonar nuestra atención debe estar permanentemente puesta no solo en lo que sucede sino en lo que podría suceder.

La insistencia en esta forma de incorporar tecnología, y en particular sistemas automáticos, responde a la dificultad de marcar las implicancias éticas de cada rutina y subrutina de un complejo software. Como dice el computador científico Nathaniel Borenstein: "Ningún ingeniero de software con entrenamiento en ética alguna vez estaría de acuerdo con escribir el proceso DestruirBagdad. Una ética profesional básica en cambio le requeriría escribir el proceso DestruirCiudad, para el cual Bagdad podría darse como parámetro".

A esto precisamente apunta Wu en el artículo citado más arriba. Prácticamente no hay tecnología digital con la que interactuemos hoy que en algún punto no incorpore una capa de predicción, informada por el interés en optimizarlo todo. El mayor ejemplo de esto es sin más el esquema de publicidad al que vivimos sujetos: sugerirle una publicidad al usuario para maximizar las chances de que haga la compra; identificar personas en una foto; predecir si alguien devolverá un préstamo o reincidirá delictivamente.

La prisión de la optimización

Con la cancha marcada por el solucionismo, aquella cuasi-ideología implícita en todo lo que sale de Silicon Valley, las discusiones acerca de políticas públicas muchas veces son vistas como un problema de optimización. Esto es, una situación con variables de cantidad, una función objetiva para maximizar o minimizar esas variables, y algunas restricciones sobre dichas variables. El transporte público, la seguridad social, incluso los procesos electorales son así vistos como problemas optimizables.

Así los problemas políticos, económicos, sociales e incluso éticos son vistos como problemas de optimización. Curiosamente de este enfoque rara vez surgen discusiones acerca de la definición misma del problema y la computación se vuelve una herramienta para mantener el statu quo. Nos perdemos en discusiones acerca de cuál es la ruta más segura de un punto a otro sin preocuparnos por pensar en por qué las otras son inseguras en primer lugar.

Haciendo mucho esfuerzo por no discutir una vez más acerca del dilema del tranvía versión vehículos autónomos -aquel vicio pseudofilosófico que parece monopolizar toda discusión ética vinculada al campo de la inteligencia artificial- nuestra mesa de trabajo resolvió una serie de líneas de trabajo interesantes. Luego de las muchas, muchas instancias en las que me tocó discutir estos temas me resultó refrescante el nivel de los comentarios hechos. Durante las casi tres horas de trabajo no hubo lugar a comentarios alarmistas o a la brutal ignorancia a la que debimos acostumbrarnos siempre que se habla de máquinas.

En cambio, si algo puede darnos un atisbo de esperanza, es que hay muchas personas interesantes empujando para elevar el nivel de la discusión respecto de las máquinas que de un momento a otro inciden en la forma en que vivimos nuestra realidad más inmediata. Si algo me entusiasma del interés por un Plan Nacional de Inteligencia Artificial es que esta sea la iniciativa que frene a los atropellos tecnoingenuos que a diario vemos suceder. Después de todo, quizá algo de ineficiencia en beneficio del mundo en que queremos vivir no esté mal.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Descargá la aplicación de LA NACION. Es rápida y liviana.