Suscriptor digital

¿Qué podemos aprender de los robots?

Sonia Jalfin
(0)
20 de octubre de 2018  

El bot de Quartz, un medio periodístico digital, puede comentar las noticias y responder preguntas a cada lector, a través de un chat, como si estuvieran conversando. Por supuesto, no lo entiende todo. Como dice una de sus creadoras, Emily Withrow, el bot no pretende ser un especialista en todos los temas. De modo que cuando no entiende una pregunta, responde con lo que llaman un "emoji ambiguo".

"Tratamos de que el bot nunca conteste 'no entendí', porque puede volverse repetitivo y atentar contra la experiencia de conversación. Preferimos que responda con una imagen abierta a interpretación. Y es hermoso. Los humanos somos muy buenos para adjudicarle significado a un emoji, y eso permite que la conversación continúe", dice Withrow, que estuvo en Buenos Aires invitada por Hacks/Hackers Buenos Aires para la conferencia Media Party.

"Por ejemplo, respondemos con el emoji de que te estás pintando las uñas: si el lector dijo 'eso es estúpido' parece que el bot lo está desestimando, que dice 'no me importa'. Si el lector dijo 'eso es genial' parece que el bot contesta 'ya lo sabía'. Funciona porque el humano completa el sentido, y eso lo aprendimos mientras construíamos el bot".

Es frecuente escuchar que los robots aprenden de nosotros, que nos imitan para mejorar su capacidad de interactuar y de resolver problemas. Pero es cada vez más habitual comprobar que el aprendizaje va en dos direcciones. Ellos aprenden de nosotros y nosotros, de ellos. Sumergirse en la inteligencia artificial es, cada vez más, sumergirse en la inteligencia humana.

"Trabajar en modelos de inteligencia artificial que emulan el comportamiento humano en tareas particulares nos da -sin duda- una perspectiva reflexiva, nos hace pensar más introspectivamente. Creo que es un espacio ideal para jugar entre la filosofía y la ciencia, para indagar en temas como la conciencia humana", dice Facundo Carrillo, investigador de la UBA y fellow de Facebook Research. "La gesta de entender la inteligencia humana es demasiado titánica y por eso suele abordarse a través de un proceso que implica analizarla por partes y desde distintas perspectivas. No hay una definición taxativa de inteligencia artificial, probablemente porque tampoco podemos definir inteligencia humana de manera general".

Estudiar el cerebro humano es muy difícil. Podemos hacer preguntas a las personas sobre qué sienten o piensan, pero a veces ni ellas lo saben. Podemos escanear cerebros, pero es una herramienta un poco rudimentaria para extraer conclusiones. La investigación tradicional estudió a personas con algún tipo de daño cerebral para compararlas con personas sanas. Hoy la inteligencia artificial ofrece nuevos caminos. Carrillo, junto con Mariano Sigman, Diego Fernández Slezak y otros investigadores, por ejemplo, hizo un análisis automatizado de entrevistas a pacientes jóvenes con riesgo de padecer esquizofrenia. Las regularidades, detalles y precisiones detectadas en el discurso de estas personas con este método les permitieron predecir la enfermedad. Su trabajo fue publicado en la revista científica Nature. En otro estudio pudieron determinar con un 77 por ciento de certeza el grado de dificultad motora de pacientes de Parkinson a partir de los cambios sutiles en el uso del lenguaje. Este año lograron predecir -sobre la base del análisis de su discurso- qué pacientes tratados por depresión iban a responder bien a un medicamento que no siempre es efectivo.

"Mis primeras colaboraciones con psiquiatras fueron muy interesantes. Cuando les pedía que me explicaran por qué un paciente tenía determinada patología, mucha de la información que usaban para diagnosticar no estaba formalizada: era producto de la experiencia de estar expuestos a muchos casos de la misma patología. Esa valiosísima intuición que se aprende con la experiencia y es muy difícil de transmitir puede ser modelada y cuantificada con métodos objetivos y reproducibles por algoritmos de inteligencia artificial", dice Carrillo.

También hay ejemplos por fuera de la psiquiatría. Marco Zorzi, de la Universidad de Padua, trabajó con bots que aprenden solos a reconocer las formas de las letras a partir de imágenes de la naturaleza. Según su trabajo, hay evidencia de que la grafía utilizada en diversos alfabetos está inspirada en formas reconocibles del entorno natural que nuestro cerebro está mejor preparado para comprender. Su investigación ayuda a entender cómo aprendemos a leer los humanos.

El mundo del marketing viene experimentando con inteligencia artificial que anticipa las decisiones de compra de las personas para mejorar los sistemas de recomendaciones en plataformas comerciales. Esos mismos sistemas alimentan bots conversacionales, como el de Quartz, o los asistentes virtuales que ofrecen los celulares. En Estados Unidos, según un informe de Pew Research de diciembre pasado, el 46 por ciento de los adultos ya usa un asistente de voz. Es decir, conversa habitualmente con un bot. Todos ellos son parte de un campo de experimentación en vivo. Lograr que un bot charle con nosotros obliga a sus creadores a sistematizar y emular los cientos de acuerdos tácitos, juegos y conexiones que gobiernan las conversaciones humanas.

La ilusión de una charla

Uno de los trucos que enseñó Withrow en su taller de la Media Party fue que los bots, cuando chatean con nosotros, aunque puedan responder más rápido que un humano, tienen que hacer pausas y mostrarnos signos de que están demorando en escribir una frase, para alentar la ilusión de la conversación. Hoy sabemos que la comunicación entre humanos necesita de esos reaseguros. Cuando en mayo Google presentó un prototipo de asistente virtual que llamaba a una peluquería a reservar un turno, el momento más festejado de su charla con la recepcionista fue cuando le dijo "mm", para confirmarle que la estaba escuchando y entendiendo.

Withrow dice que sus creaciones de inteligencia artificial tienen algo de inteligencia emocional. "El bot puede preguntarle a un lector cómo se siente con una noticia y tenerlo en cuenta en la conversación", dice.

El aprendizaje conjunto de máquinas y personas que se hablan es protagonista del libro El humano más humano, en el que el escritor Brian Christian narró su participación en el concurso Loebner. Se trata de una competencia anual donde las computadoras compiten por sostener conversaciones como humanos, de acuerdo con las reglas definidas por el científico Alan Turing en 1950: los jueces humanos conversan con una computadora y una persona con agenda abierta, y deben intentar descubrir quién es quién. El concurso Loebner -financiado por un millonario que hizo su fortuna vendiendo baldosas plásticas luminosas para pistas de baile- fue irresistible para Christian, quien decidió presentarse como competidor humano y aprovechar la experiencia para reflexionar sobre las cualidades que distinguían su inteligencia humana de una artificial.

Tal vez lo más interesante de su odisea, que lo llevó al emotivo triunfo de ser correctamente identificado como humano, es que en el camino cree haber aprendido más sobre las personas que sobre los concursantes bots. En una entrevista en la Universidad de Washington comentó: "Lo que empezó como una investigación sobre la tecnología terminó centrándose en la naturaleza de la conversación humana. Después de esta experiencia pienso mucho más sobre los turnos, las interrupciones y las formas en que cedemos la palabra. Soy más consciente de que la verdadera complejidad de una conversación está tanto en la forma de interactuar como en el contenido. Mis preguntas hoy no buscan respuestas en general, buscan la respuesta particular de cada persona".

El concurso seguirá realizándose, todos los años, hasta que una computadora -munida de inteligencia artificial- logre engañar a los jueces y pasar por una persona.

Mientras tanto, podemos aprovechar los aprendizajes que se nos ofrecen, y responder a cualquier pregunta difícil como si estuviésemos pintándonos las uñas.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Usa gratis la aplicación de LA NACION, ¿Querés descargala?