Brian Scassellati: "Al crear robots nos damos cuenta de cuán complejas son las personas "

El ingeniero estadounidense, especializado en la interacción entre personas y tecnología, asegura que no hay que temer a la inteligencia artificial, aunque es importante regular su desarrollo
Martín De Ambrosio
(0)
11 de enero de 2020  

Brian Scassellati
Brian Scassellati Crédito: PATRICIO PIDAL/AFV

El apellido escandalosamente italiano para un experto estadounidense en robótica esconde una historia: la de un pueblo siciliano que, cuando la compañía minera que empleaba a sus habitantes decidió instalarse en Nueva Jersey, se mudó por completo a esa localidad. Los hijos y los nietos de esos trabajadores del carbón fueron educados a la manera estadounidense y en el idioma inglés, de tal manera que Brian Scassellati, que solo puede insultar en italiano, estudió en las mejores universidades de Estados Unidos (ahora es profesor en la Universidad de Yale) y es una referencia en el mundo de los artilugios conocidos con el nombre checo de robot ( robota, esclavo).

Scassellati, que estuvo en Buenos Aires como uno de los responsables de un intercambio de estudiantes con la Universidad de San Andrés, donde también dio charlas públicas, cree que no hay peligro de que los robots se insubordinen y tomen el control planetario. Pero sí reconoce algunos posibles riesgos si no se implementa una regulación muy precisa para estos desarrollos tecnológicos.

De todas maneras, este admirador de clásicos de la ciencia ficción como Isaac Asimov y Philip K. Dick, y a quien las historias de Black Mirror le parecen "instructivas", se abocó a un campo específico menos filosófico y más acotado: robots que enseñan, por ejemplo, herramientas sociales a chicos con autismo.

Existe un consenso en el campo de la Inteligencia Artificial (IA) respecto de que es muy difícil crear robots con cualidades humanas. ¿Es así?

Estamos lejos de conseguir robots que luzcan como personas, que actúen y sean tan inteligentes como las personas. Pero hay cosas en las que son muy superiores a los seres humanos. Robots que son más fuertes de lo que puede llegar a ser un humano o que pueden trabajar períodos de tiempo más extensos. Cuando se piensa en lo que los robots pueden hacer o no, no hay que hacerlo en términos de una evaluación integral, sino en términos de una tarea específica.

Nunca indistinguibles de una persona.

Exacto. No con las cualidades y flexibilidad que tiene una persona. De hecho, cada vez que construimos un robot encontramos nuevas cosas en las que las personas son realmente buenas, y que no habíamos advertido que son muy difíciles de programar en una máquina.

¿Por ejemplo?

En los primeros momentos de la IA no nos dimos cuenta de lo difícil que es ver el mundo. Hay una historia muy famosa de los comienzos, cuando un grupo quiso construir un robot y dijo: "Vamos a hacerle un par de ojos, algo que puedan hacer estudiantes en un proyecto de dos meses". En realidad, desde entonces miles de investigadores han estado trabajando con la visión computarizada; cientos de papers se publican todos los días sobre el tema. Resultó imposible de hacer para un estudiante solo en dos meses. Además, nos dimos cuenta de que cuando interactuamos con el mundo lo hacemos de forma social. El truco de los humanos es que todo es social. Cuando interactúo con el robot, mi tendencia es hacerlo como si él fuera una persona, incluso cuando sé que no lo es. Pero mi tendencia aun así es hablarle, hacer contacto visual, pensar que tiene ideas, concepciones y pensamientos, aunque sepa interiormente que ningún objeto puede tenerlos. Cómo entender esa situación es muy difícil.

O ciertos automatismos.

Si estoy en un aula y me pongo a trabajar al lado de un estudiante en un laboratorio y le propongo armar algo juntos, enseguida me doy cuenta si él es bueno o no para desarrollar algunas tareas, cómo usa una herramienta en particular, si es bueno cortando, diagramando y demás. Puedo decirlo muy rápidamente. Y es algo que puede hacer cualquiera. Pero cómo lo hacemos es el tema. Cómo podría hacerlo un robot, eso es un desafío total. Hay que estar en condiciones de observar a la persona, de tratar de estimar qué piensa y qué sabe, e interpretar qué hace en relación con un conocimiento. ¿Cómo hacemos que un robot haga eso? Cada vez que lo intentamos, nos damos cuenta de cuán fascinantes y complejas son las personas.

¿Y no están cerca de lograrlo?

No, estamos muy lejos. Se ha conseguido en territorios muy específicos. Por ejemplo, pude construir robots que enseñan matemática. Cuando enseñamos matemática a un chico de diez años podemos construir buenos modelos para división, multiplicación, la clase de cosas que debe saber un niño de esa edad. Lo puedo hacer sabiendo que puede entenderlo, pero restringido a la matemática. Si quiero extender a lo que un niño de diez años puede saber de skateboarding, agricultura o nutrición, ni siquiera sabría cómo comenzar. Es decir, hicimos progresos, pero con límites bien definidos.

¿Qué cosas puede enseñar un robot hoy?

Hacemos robots que son capaces de enseñar diferentes tipos de currícula a estudiantes muy diferentes, desde cuestiones alimentarias para chicos de cinco años hasta matemática para niños de diez, e incluso lenguaje de signos para niños sordos de apenas seis meses de edad. En todos los casos, lo que hacemos es crear sistemas que puedan saber qué nivel de conocimiento tiene ese estudiante.

¿También usan robots para autismo?

Sí, en lugar de enseñar matemática o un idioma nuevo, les enseñamos herramientas sociales básicas, como cuándo hacer contacto visual con alguien, o cómo reconocer cuando alguien está contento o triste. Lo hacemos habitualmente con robots que se quedan durante un mes en la casa de la familia.

¿Son sesiones fijas?

El robot está programado para aprender, adaptarse y cambiar en el curso del mes. Debe responder a lo que ese estudiante en particular necesite. Algunos chicos con autismo son muy buenos para reconocer emociones, otros no tanto. Reconocer qué herramientas posee cada chico y cuáles necesita reforzar es algo que cada robot debe hacer. Es un poco aterrador, porque sé lo que va a hacer el robot el primer día, pero no tengo idea de qué hará el segundo. Y para el trigésimo será algo completamente diferente.

¿Los chicos saben que son máquinas?

Tienen claro que se trata de robots, saben que no son animales ni personas. Porque además lucen como robots, no imitan ninguna otra cosa. Tenemos que tener mucho cuidado a la hora de diseñar esas interacciones, para que cuando el robot se vaya no exista una situación traumática. Se arma una historia previa, donde el robot se presenta el primer día y dice que es un explorador espacial cuya máquina chocó y le pide ayuda al niño. Todos los días hacen sus ejercicios y cuando terminan hay como una reparación de la máquina para que el "explorador" pueda volver; así, cada día está un poco más reparada. La última semana el robot dice que está un poco triste porque se tiene que ir, pero a la vez contento de regresar a su hogar.

¿Los chicos lo creen de verdad?

No está claro. Los más pequeños, de cuatro o cinco años, no creo que crean que son alienígenas del espacio exterior, pero sí que los están ayudando. Se ponen tristes cuando se van. Es un poco como la historia de Los superjuguetes duran todo el verano [novela de Brian Aldiss, base de la película de Steven Spielberg, IA]. Tratamos de ser cuidadosos, estamos construyendo una relación entre niño y robot.

¿Qué clases de reglas o regulaciones cree que debería tener esta clase de desarrollos?

Creo que hay algunas regulaciones que tendremos que tener. Si no específicamente en los robots que yo hago, sí sin duda en los robots como categoría amplia. Porque, en muchos sentidos, estamos en un territorio desconocido. Cuando tengamos esa base regulatoria, podremos empezar a generar más aplicaciones prácticas que ayuden a la gente. Por ejemplo, en Estados Unidos hay una gran diferencia de desarrollo entre autos autónomos y drones autónomos. La razón es que las regulaciones y políticas para los autos son mucho más estrictas. Las agencias y las empresas llevan más de veinte años trabajando en ellas, porque no es lo mismo un auto que se maneja enteramente solo a otro que te permite ir exclusivamente en línea recta. En cambio, para los drones no hay regulación clara, pero tampoco inversión corporativa; nadie quiere invertir si no hay reglas claras. A veces se piensa que las políticas y las regulaciones son algo malo, pero este ejemplo demuestra todo lo contrario. Queremos regulaciones y reglas.

¿Cuáles son los riesgos?

A veces la tecnología se termina usando en un modo distinto del que se había pensado. Hay un caso interesante en las fuerzas armadas de Estados Unidos, que se pasaron más de diez años diseñando un robot que buscara explosivos. Lo lograron y pusieron al robot dentro de un grupo de soldados, que lo adoptaron, le pusieron un nombre y lo trataron como uno más del equipo. El tema es que los soldados, que estaban entrenados para correr riesgos en nombre de su equipo, cuando aparecían objetos sospechosos de ser bombas no dejaban que el robot hiciera el trabajo para el que había sido diseñado, para protegerlo.

¿Qué cree que pasará con la subjetividad humana? ¿Cómo nos cambiarán estas nuevas interacciones?

La verdad, para ser honesto, es que no creo que cambie sustancialmente. Ya tenemos tanta tecnología en nuestras vidas que existe un claro entendimiento de las diferencias entre una persona y una máquina. Hay un estudio del año pasado, que observó lo que ocurrió en un shopping donde pusieron un robot para dar indicaciones a los clientes que preguntaban por un negocio específico. Muchos lo usaban así, pero también hubo un grupo de adolescentes que le pegaron, lo patearon y lo maltrataron. ¿Qué dice eso de nosotros? Puedo extrapolar la idea y preguntarme si estaría bien generar un robot cuyo único propósito fuera ser golpeado, ¿estaría bien o no? Ese tipo de preguntas deberíamos respondernos en los próximos años.

Más allá de estos detalles, desde una perspectiva general, filosófica si se quiere, ¿para qué construimos robots? ¿Es necesario meterse en todos estos líos?

Bueno, en el caso de los robots que ayudan a los niños me preguntan por qué no lo hacen terapistas adultos. La respuesta corta es que sí, sería mejor, pero de hecho no tenemos la suficiente cantidad de gente preparada para eso, ni con la cantidad de tiempo suficiente para dedicarle a la gente que tiene necesidades. Cuando miramos la demografía mundial, es preocupante también el número de adultos mayores que necesitan ayuda.

¿No hay entonces ninguna posibilidad de que los robots tomen el control del planeta?

¿Algo como la llegada de la revolución, un "Terminator" que nos domine? La respuesta es un chiste que nos contamos los ingenieros y es que un posible levantamiento de los robots se termina con una escalón más en la escalera, o con una mano que te tape la cara, porque sencillamente no están preparados para esos escenarios no eventuales. No es que no se tome en serio la posibilidad, pero muestra qué tan frágiles son los sistemas que hasta ahora hemos podido crear. Incluso cuando ves cosas increíbles, como el robot que hace s kateboard, o el que juega a las damas, o los perros de Boston Dynamics, lo cierto es que funcionan en entornos muy cuidados y definidos. Si cambias algo muy pequeño, se desmoronan. No aprenden a subir cualquier escalera, sino una escalera determinada, de determinada cantidad de escalones.

Pero se trata solo de una cuestión de tiempo.

Para pequeñas cosas, sí. El robot que tenemos sabe hacer bien una cosa, pero no otras. Son todos muy específicos. No hay robots de propósito general. No hay un robot con un CPU que pueda hacer cosas diferentes. El que puede lavar los platos no enseña matemática. No se viene la revolución de los robots, podemos dormir tranquilos.

ADEMÁS

MÁS leídas ahora

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Descargá la aplicación de LA NACION. Es rápida y liviana.