¿Qué tipo de robots domésticos prefieren las personas?

Pepper, el androide de Softbank, es considerado uno de los primeros robots sociales, que puede expresar sentimientos y generar empatía con los humanos
Pepper, el androide de Softbank, es considerado uno de los primeros robots sociales, que puede expresar sentimientos y generar empatía con los humanos Fuente: Reuters
Los androides que tienen cambios de mirada, movimientos perfectibles y que aparentan ser menos inteligentes suelen ser más apreciados por los humanos, incluso por delante de otras alternativas con mayor capacidad de reacción, de acuerdo a una investigación de la Universidad de Salzburgo
Débora Slotnisky
(0)
21 de diciembre de 2017  • 00:29

Aunque, a priori, una de las diferencias entre robots y humanos es que los primeros deberían estar desarrollados para no cometer errores, en el estudio "To Err Is Robot: How Humans Assess and Act toward an Erroneous Social Robot", publicado recientemente en el medio especializado Frontiers in Robotics and IA, se revela que las personas reaccionan mejor a los autómatas que se equivocan, comparado con los que desempeñan a la perfección.

Para llegar a esta conclusión, el equipo de investigación programó un comportamiento equivocado en un robot y luego se grabó su interacción con personas de entre 16 y 76 años. Para comparar los resultados, se realizó la misma actividad con un modelo que funcionaba a la perfección. Luego se midió cuánto gustaban ambos, su antropomorfismo y su inteligencia. Tras analizar los videos y entrevistar a los participantes, los científicos descubrieron que los humanos respondieron al error con señales sociales como cambios en la mirada y risas. Además, determinaron que el primer androide no era percibido como "menos inteligente" que el otro, e incluso gustaba más que el perfecto.

Implicancias en el desarrollo de nuevo robots

La autora de la investigación, Nicole Mirnig, candidata a doctor en el Centro para la interacción Hombre-Máquina, de la Universidad de Salzburgo, en Austria, explicó a la prensa internacional que dado este hallazgo, los robots orientados al uso doméstico o a la atención al público deberían ser capaces de entender cuando se está ante un error para poder actuar en consecuencia. Además, argumentó que es importante comprender a fondo estas instancias de interacción para poder refinar la calidad en comunicación seres humanos y androides.

"Los resultados de este estudio pueden analizarse en dos planos: si el autómata realiza una tarea importante como ayudar en las tareas domésticas, sus equivocaciones no serán bien vistas por sus propietarios. Sin embargo, podría generar empatía si los errores son inocuos, por ejemplo, confundir el color de una corbata que se le solicita. En este sentido, lo que podría suceder es que los fabricantes programen a los robots para que cometan deslices inofensivos cada determinado periodo de tiempo o que incluso incorporen respuestas con contenido humorístico para fortalecer la relación entre ambos", vaticina Ignacio Perrone, licenciado en Sociología y gerente de investigaciones en la consultora Frost & Sullivan.

Un error del androide no será bien visto por los dueños, pero podría generar empatía si los errores son inocuos, como confundir el color de una corbata que se le solicita
Ignacio Perrone, de Frost & Sullivan

Santiago Koval, profesor e investigador del Instituto de Ciencias Sociales de la Fundación UADE y autor del libro "La condición poshumana", coincide con Perrone con respecto a la necesidad de clasificar los distintos tipos de errores, y pone la lupa en las características del estudio.

"Este tipo de experimentos mide únicamente nuestra respuesta emocional ante errores que son inocuos o no fundamentales y, en este sentido, solo abarca un aspecto muy acotado de la interacción humano-computadora. Principalmente, estos resultados evidencian la tendencia que tenemos como seres humanos a tratar a los otros no-humanos como si efectivamente lo fueran, e incluso a querer imponer clasificaciones humanas a cosas que no lo son ni deben serlo. Este sesgo antropocéntrico en la interacción con criaturas u objetos no-humanos nos habla, en definitiva, de nuestra endogamia como especie, de esa pulsión que heredamos desde la antigüedad a hallar espejos de nosotros mismos en todo lo que nos rodea".

Robot-humano, una relación muy especial

Nao, otro androide de Softbank, también se utiliza como una plataforma robótica para atención al cliente en la recepción de un hotel
Nao, otro androide de Softbank, también se utiliza como una plataforma robótica para atención al cliente en la recepción de un hotel

Son muchos los fabricantes que están trabajando para lanzar robots que operan dentro de los hogares y pueden ayudar con tareas domésticas, de enfermería y de crianza de los hijos, o actuando como un compañero con el que comunicarse, de ahí el auge de la robótica social, que es la disciplina que estudia el vínculo que se establece entre autómatas y humanos con el objetivo de que la relación entre ambos sea lo más natural posible.

Al respecto, y dadas las posibilidades que ofrece la inteligencia artificial y el aprendizaje automático (machine learning), gracias a los cuales los autómatas pueden ir aprendiendo a medida obtienen datos del entorno, Marcelo Fiasche, Managing Director para Argentina de Oracle, vaticina que, en caso de que los resultados de otras investigaciones como la mencionada sean concluyentes, en el mercado podría haber robots para distintos tipos de consumidores, incluyendo algunos especialmente programadores para que se equivoquen esporádicamente. "A los más jóvenes quizás le guste que éste cometa errores inocuos, mientras que los mayores querrán que no cometa ningún tipo de equivocación. Personalmente prefiero uno que sea perfecto", opina el ejecutivo.

Si pudiesen se programados para cometer errores, deberán necesariamente contar con protocolos de segundo orden que limiten la frecuencia, el nivel y la clase de errores que son capaces de cometer
Santiago Koval, investigador de la UADE

Pero claro, su disponibilidad en el mercado no sería tan sencilla: "Si pudiesen se programados para cometer errores, deberán necesariamente contar con protocolos de segundo orden (metadiscursivos) que limiten la frecuencia, el nivel y la clase de errores que son capaces de cometer. Esto generará probablemente problemas de clasificación o de acatamiento, más aun si los robots están dotados de un grado de autonomía", reflexiona Koval.

Por este motivo, considera que sería mejor lograr la tan deseada empatía dotándolos de reacciones emocionales que incluyan una diversidad de comportamientos ante situaciones sociales variables: "Si tuviera que elegir, prefiero vincularme con un robot que reconoce y comprende que ha obrado mal y que aprende a partir de ello a corregir su conducta, que con un autómata que es capaz de equivocarse porque así ha sido programado, pero que no reconoce ni comprende la naturaleza o relevancia del error que ha cometido", opina.

Por lo pronto, Perrone y Fiasche coinciden al indicar que las personas experimentan una mezcla de sentimientos al interactuar hoy en día con estos humanoides: "Por un lado hay aprensión a las máquinas por ciertas visiones apocalípticas que se ven en el cine hasta por el temor a que puede nos saquen nuestros puestos de trabajo. Sin embargo, poco a poco nos estamos acostumbrando a su presencia, y en este sentido una de sus cualidades que más valoramos es que, justamente, no deberían equivocarse", concluyen.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.