¿Cómo decide un vehículo autónomo quién debe salvarse en un choque?

Una prueba de manejo de un sistema de manejo autónomo de Uber en un vehículo de Volvo. Una encuesta online del MIT reveló cuáles podrían ser las reacciones que debería tomar una máquina en un accidente basado en la opinión de más de 2 millones de personas
Una prueba de manejo de un sistema de manejo autónomo de Uber en un vehículo de Volvo. Una encuesta online del MIT reveló cuáles podrían ser las reacciones que debería tomar una máquina en un accidente basado en la opinión de más de 2 millones de personas Fuente: Reuters
(0)
25 de octubre de 2018  • 00:24

Desde 2016 el Instituto de Tecnología de Massachusetts y el MIT MEdia Lab crearon Moral Machine, una encuesta online global que recopiló respuestas de personas de todo el mundo para que ofrezcan su punto de vista ante situaciones de accidentes de tránsito que involucren a un vehículo autónomo . "Las máquinas inteligentes, sean autos o cohetes reutilizables, apoyan o reemplazan actividades humanas complejas, y pueden tomar decisiones complejas de manera autónoma que pueden afectar la integridad física de las personas", explican los autores de la iniciativa en el sitio.

Durante dos años el sitio Moral Machine recopiló la opinión de las personas sobre cómo las máquinas deberían tomar una decisión ante un dilema moral, y con los resultados esperan debatir las repercusiones que tiene el uso de estas tecnologías en la sociedad.

Los dilemas morales que presenta la encuesta online se basan en elegir el menor de los dos males, como elegir entre matar a dos pasajeros o cinco peatones. A su vez, el sitio también ofrece la posibilidad de crear diferentes escenarios para que puedan ser evaluados con otras personas.

Con esta propuesta, Moral Machine recolectó 40 millones de decisiones éticas realizadas por 2 millones de personas de más de 200 países. "El estudio trata de comprender las decisiones morales que deberían sortear los vehículos autónomos", dijo Edmond Awad, uno de los autores del estudio y aclaró que todavía no llegaron a la conclusión sobre qué es lo que deberían hacer las máquinas, pero se pudo identificar tres situaciones que son aceptadas por la gran mayoría.

Los resultados revelan que las personas priorizan a los humanos por sobre los animales, que priorizan salvar la mayor cantidad de vidas y que dan una preferencia especial para salvar la vida de los niños por sobre los adultos ante un escenario de choque.

A su vez, el resultado del reporte señala que las respuestas varían levemente según cada región. Por ejemplo, en países de Asia y Medio Oriente las preferencias por proteger la vida de los más jóvenes por sobre los adultos no son tan marcadas. "Esto puede ocurrir por cuestiones culturales propias de cada región, donde existe un respeto a los miembros mayores de la comunidad", señalan los autores del informe The Moral Machine Experiment, que será publicado en la revista Nature.

El panorama actual de los vehículos autónomos es muy incipiente y por el momento solo funcionan vehículos prototipos en caminos públicos y privados. Las compañías tecnológicas y automotrices pujan por ser las primeras en ofrecer este servicio para 2025 según algunas previsiones. Sin embargo, este año los accidentes fatales que involucraron a Uber y Tesla pusieron bajo la lupa el desarrollo de este tipo de tecnologías y sobre el alcance e impacto que pueden tener en la vida cotidiana de los peatones y conductores.

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.