Cuando la máquina nos conoce mejor que nosotros mismos

Eduardo Levy Yeyati
(0)
25 de julio de 2016  

Imaginemos un programa para caracterizar la respuesta de un humano a un determinado estímulo. El programa escribe una pregunta simple: "¿Qué opina de este producto?" El humano responde "bueno" y el programa registra un positivo. El humano responde "malo" y el programa registra un negativo. El humano responde: "No me sorprendería que a algunas personas esto les haya parecido bueno", y el programa... pifia.

En las primeras tres décadas de la agenda de inteligencia artificial se siguió una estrategia simple: que la máquina copie el pensamiento humano. Como el formato del pensamiento es el lenguaje, un ejercicio de introspección natural consistió en identificar las palabras que usamos para expresar nuestras emociones (bueno es positivo, malo es negativo) y programar estas asociaciones en un código. Los resultados fueron, en el mejor de los casos, pobres.

El avance de la inteligencia artificial partió de reconocer que la máquina es mala pensando como humano, pero es buena pensando como máquina. En vez de mapear el proceso de inferencia humana, ¿por qué no mejor inferir empíricamente las reglas de asociación, aprovechando la capacidad de procesamiento masivo de la máquina?

Cambiemos el enfoque: dejemos la caracterización de las respuestas de los usuarios al humano y pongamos al programa a registrar las respuestas del usuario y su caracterización. El proceso por el que el programa observa y aprende de los humanos se denomina "aprendizaje de la máquina". Parte de muchísimas iteraciones del comportamiento humano ( machine learning sería imposible sin big data) y encuentra patrones de respuesta aun allí donde los humanos no los vemos.

Un trabajo reciente de investigadores de Cornell selecciona pares de tuits distintos conteniendo el mismo link. ¿Cuál de estos dos tuits atrajo más retuits?, preguntan. Los humanos analizan los dos tuits y aciertan el 60% de las veces. El programa, a medida que acumula información, es mucho más preciso. En el límite, versiones de este tipo de algoritmos pueden, como en el célebre caso de la tienda Target, detectar un embarazo adolescente antes de que la adolescente lo sepa.

Que en algún sentido la máquina nos conozca mejor que nosotros mismos no debería sorprendernos: así como al futbolista profesional le cuesta menos meter la pelota en el ángulo que describir en detalle cómo lo hace (algo relacionado con lo que David Kahneman llamaba el piloto automático del pensamiento), también nos cuesta identificar con precisión la semiótica de nuestras emociones.

Se trata, en definitiva, de dos inteligencias complementarias. El programa no me enseña a tuitear, pero me enseña a tuitear mejor. Y algoritmos como los de Target ayudan a diagnosticar enfermedades, a trazar mapas increíblemente precisos de desarrollo económico y social en base a imágenes satelitales, o a prevenir el crimen -aunque muchas veces heredan los prejuicios lombrosianos de sus entrenadores humanos-. La máquina expande nuestra capacidad de procesamiento, incluidos sus sesgos.

Curiosamente, esta versión posible de la inteligencia artificial es, desde un punto de vista humano, poco inteligente. El programa no hace inferencias causales, sólo asocia. Y sus predicciones son intensivas en información, pero estáticas, una foto poderosa y efímera. Nos acerca a un mundo de infinitas coincidencias y escasas sorpresas, aun lejos de la singularidad autoconsciente de Skynet.

temas en esta nota

0 Comentarios Ver

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.