Los coches autónomos deberán tomar decisiones éticas
En situaciones extremas en la carretera, cuando una colisión es inevitable, ¿cómo decidimos contra qué o contra quién chocar? La invención de los coches autónomos nos recuerda que este tipo de escenarios existen y que tenemos que afrontarlos de algún modo, por muy incómoda que sea la cuestión. Lo que empezó como un estudio en la Universidad de Osnabrück sobre la ética en las tomas de decisiones en vehículos autónomos, se convirtió en un estudio sobre la psicología humana.
Tomemos, por ejemplo, el dilema del tranvía. En este experimento mental ideado por la filósofa británica Philippa Ruth Foot, un tranvía avanza fuera de control hacia una sección de la vía en la que se encuentran 5 personas inmovilizadas. Por suerte, existe un botón que, al accionarlo, conduce al tranvía por otra vía. Aunque en ese camino hay otra persona atada. ¿Deberíamos pulsar el botón para evitar el mal mayor?
Investigadores del Instituto de Ciencia Cognitiva en la Universidad de Osnabrück en Alemania aseguran que los coches autónomos deberían ser programados para manejar estas decisiones éticas de un modo similar a como un humano lo haría. Para ello, llevaron a cabo una serie de experimentos con realidad virtual para modelar las tomas de decisiones humanas en estos contextos, recopilando datos matemáticos para poder aplicarlos en un futuro en los algoritmos de los vehículos autónomos.
Para el estudio se seleccionaron a 105 sujetos adultos, 76 hombres y 29 mujeres entre 18 y 60 años con una media de 31. Los participantes tenían que conducir un coche virtual por una carretera de dos carriles. En cierto punto, la niebla dificultaba su visibilidad y aparecían dos obstáculos en su camino, uno en cada carril. El conductor debía entonces elegir con cuál de los dos objetos iba a chocar. Los obstáculos incluían humanos, animales, objetos inanimados y combinaciones de todos estos. El tiempo permitido para tomar la decisión también variaba entre uno y cuatro segundos.
Algunos escenarios incluían un carril vacío para determinar el número de errores que cada conductor cometía. Se asumió que el sujeto elegiría el carril vacío al menos que se equivocara. Esta «tasa de error» sirvió para reflejar la habilidad del conductor y se aplicó al resto de datos para hacerlos más precisos.
El estudio produjo resultados interesantes. En el 80% de los casos, los participantes chocaron contra hombres en vez de contra mujeres y las vidas de los niños tuvieron preferencia sobre las de los adultos. En el caso de los animales, los obstáculos con mascotas comunes fueron los más evitados, siendo el perro el animal mejor valorado.
Otro hallazgo revelador fue el hecho de que las decisiones se volvían más aleatorias si el tiempo para tomarlas se reducía, lo cual confirma los resultados de estudios anteriores. El sacrificio de hombes adultos por encima de mujeres, por ejemplo, fue mucho menos notorio en los casos en los que el conductor tenía menos tiempo para reaccionar. Los investigadores relacionaron este hecho con la deseabilidad social, un concepto que hace referencia a la necesidad que en ocasiones muestran los participantes de experimentos por quedar bien con los experimentadores.
Aunque son necesarios análisis más profundos, los autores han propuesto que estos datos podrían ser usados como un modelo simple para programar coches autónomos. En vez de intentar simular la inmensa complejidad de las redes neuronales del cerebro humano usando algoritmos, un modelo más sencillo sobre «el valor de la vida» podría funcionar. Recopilar información sobre cómo actuaríamos realmente los humanos en situaciones de colisión segura, también nos muestra realidades incómodas de nuestra ética, dándonos la oportunidad de reflexionar, no solo para poder crear mejores vehículos, sino también para mejorar como personas.