La moral de los robots: el código de ética en los procesos de innovación

Por qué los planteos de la economía del comportamiento les quitan el sueño a los expertos en inteligencia artificial
Sebastián Campanario
(0)
7 de mayo de 2016  

Alejandro Repetto desarrolló el primer vehículo autónomo de América latina
Alejandro Repetto desarrolló el primer vehículo autónomo de América latina Crédito: Ignacio Sánchez

Un tren se aproxima a toda velocidad hacia cinco personas que están atadas a la vía. Mediante una palanca se puede abrir un desvío hacia otro camino, en el cual hay una sola persona atada. ¿Qué haría usted en esta situación? Enfrentada con este dilema, la mayor parte de los entrevistados opta por desviar el tren y salvar a las cinco personas.

Pero ahora se introduce un pequeño cambio en el enunciado. En lugar de accionar la palanca, se puede empujar a una persona de gran tamaño hacia la vía, lo cual, se asegura, ocasionaría que el tren se frene. El resultado final es el mismo: cinco vidas salvadas contra una sacrificada. Pero en este tipo de situaciones, es menos la gente dispuesta a tomar esta determinación: no es lo mismo dejar morir a alguien que empujarlo a las vías. ¿Y qué pasaría si la persona por sacrificar fuera el mismo entrevistado, que debe arrojarse? La tasa afirmativa baja más todavía, aun a costa de que la consecuencia sea la muerte de cinco atados a la vía.

Este tipo de planteos, tradicionales en teoría de la decisión y en economía del comportamiento (la disciplina que cruza a la economía con la psicología), les quitan el sueño a los expertos en inteligencia artificial que diseñan los vehículos automanejados y otro tipo de robots. Aunque se estima que la introducción de los autos sin conductor podría salvar un 1.300.000 vidas al año en todo el planeta por la reducción de accidentes, según los expertos aún, por distintos motivos, seguirían ocurriendo siniestros. Serían un 10% de los actuales, pero esa proporción obliga a planteos éticos y morales que pueden ser muy difíciles de solucionar.

En el campo de los vehículos automanejados, los avances se están dando más rápido que todas las proyecciones previas. Este año ?Barack Obama destinó 4000 millones de dólares del presupuesto público para financiar iniciativas de este tipo, con lo cual dio una clara señal de que hay un apoyo oficial en este sentido, y a fin de 2015 en San Francisco se dio la primera licencia oficial para un camión sin conductor. Según el Foro Internacional de Transporte, en 2015 y con una muestra amplia de países analizados, la Argentina figura al tope de muertes por accidentes viales por cada 100.000 habitantes.

"Hasta no hace mucho tiempo, nadie pensaba más allá de las tres leyes de la robótica de Isaac Asimov para asegurar la convivencia pacífica entre hombres y máquinas", cuenta Alejandro Repetto, quien desarrolló el primer vehículo autónomo de América latina y estudió Ingeniería computacional en la Universidad de Milán. Las tres leyes de Asimov a las que se refiere Repetto son: uno, un robot no puede lastimar a un ser humano; dos: los robots obedecen las órdenes de humanos salvo cuando esas órdenes impliquen violar la primer ley, y tres: un robot debe proteger su propia existencia siempre que esa conducta no entre en conflicto con las primeras dos leyes.

"Sin embargo, la paradoja de los dos autos autónomos que se manejan en sentido opuesto y, ante una falla, tienen que decidir a quién matar no está contemplada en esas leyes", explica Repetto. Y agrega: "El problema que perturba es que, si bien la tasa de accidentes bajaría notablemente (se estima un 90%), los siniestros que sucederían serían de otra naturaleza. Aunque a priori todos estamos de acuerdo con la reducción, cuando se hila fino pueden surgir dilemas morales".

Un experimento llevado a cabo por el economista Jean-François Bonnefon y la Escuela de Economía de Toulouse (Francia) llegó a la conclusión de que la gente apoya un código de ética "utilitario" para los autos-robots (que entre perder cinco vidas y una se opte por la segunda opción), con una excepción: nadie quiere manejar un vehículo que decida que la vida por sacrificar es la del propio conductor. Esto crea un dilema sin solución: nadie parece dispuesto a comprar un auto que decida, con un algoritmo sofisticado, que el "mal menor" es que se muera quien lo conduce.

Todo esto, aun cuando se asegure que habrá un 90% de vidas salvadas. La economía del comportamiento viene relevando decenas de sesgos o errores sistemáticos que cometemos a diario, que nos apartan de la racionalidad, en los cuales la inteligencia artificial no incurriría.

Frente al volante, mujeres y hombres presentan muchos sesgos a la hora de reaccionar en un accidente: la respuesta es muy rápida, intuitiva, y no hay margen para evaluar las consecuencias de largo plazo, como sí podría hacer un sistema de inteligencia artificial, que además opera interconectado con todos los autos que participarían en un siniestro. Uno de los muchos sesgos que intervienen en este tipo de circunstancia, opina el economista del comportamiento Martín Tetaz, "es el que estudió Michael Bar-Eli de la Universidad de Néguev, Israel, y que muestra que los arqueros son presa del sesgo de acción y que por eso siempre tienden a tirarse hacia alguno de los palos y rara vez se quedan en el centro del arco. Este sesgo se produce porque, ante malos resultados, las personas se sienten peor si consideran que no han hecho el máximo esfuerzo posible para evitarlos. En cambio, no se sienten tan mal si creen que esos resultados se han producido aun a pesar de haber intentado evitarlos." Traducción a un accidente: se pega el volantazo con más frecuencia de lo que un cálculo racional indicaría como conveniente.

¿Cómo solucionar la trampa de que nadie compraría autos que decidieran dejar morir a su conductor? Tetaz, autor de Psychonomics (Ediciones B), arriesga una posible solución: "El dilema podría resolverse si le enseñamos al auto a responder «impulsivamente». Sé que la idea parece difícil, pero un impulso es una decisión automática sin poder de veto de la corteza prefrontal dorso lateral [(que es el área del cerebro responsable de evaluar las consecuencias de largo plazo de nuestras acciones]). La clave es diseñar un auto que pase la prueba de Turing en un simulador, de suerte tal que el observador neutral que ve la escena desde afuera no pueda identificar si la decisión fue tomada por un individuo de carne y hueso detrás del volante o por un piloto automático".

sebacampanario@gmail.com

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.