Si usted es una persona con dificultades visuales, navegue el sitio desde aquí

Tay, la robot racista y xenófoba de Microsoft

Un proyecto de inteligencia artificial con un robot que aprendía del mundo en Twitter debió ser puesto en pausa

Lunes 28 de marzo de 2016 • 13:20
0

Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado. Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía.

Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso. Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.

Insultos raciales y comentarios sexistas

Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos. Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.

También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

Inicialmente, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.

"Desafortunadamente, a las 24 horas de ser colocada en Internet (este miércoles), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado.

Peter Lee, jefe del área de Investigación de Microsoft, aseguró que la compañía "sentía profundamente los tuits ofensivos y dañinos, no intencionados".

"Proyecto de aprendizaje"

Algunos usuarios también criticaron limitaciones en temas relacionados con la música o la televisión. Otros se mostraron preocupados ante lo que Tay podría significar para las futuras tecnologías de inteligencia artificial.

"Tay es un robot de inteligencia artificial y un proyecto de aprendizaje diseñado para la interacción con humanos. A medida que aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella", agregó el portavoz.

En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que "la dejen aprender por ella misma".

Microsoft dijo que reprogramará y lanzará próximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.

Te puede interesar

Enviá tu comentario

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.
Las más leídas