El dilema moral de los autos autónomos: ¿a quién "debe" atropellar en situaciones extremas?

Investigadores del prestigioso MIT fundaron Moral Machine, una plataforma online que pretende solucionar dilemas morales históricos. De esta forma, en un proceso de cuatro fases, busca instaurar comportamientos en los autos sin conductores según el consenso general de la sociedad

Compartir
Compartir articulo
Los autos autónomos prometen cambiar de fondo la dinámica social de las ciudades
Los autos autónomos prometen cambiar de fondo la dinámica social de las ciudades

La hipótesis es harto conocida. Reviste el nombre del "dilema del tranvía": es uno de los problemas éticos más abordados de la historia y más utilizados en debates de moralidad. La filósofa Philippa Foot le presentó a la humanidad este ejercicio dicotómico en un artículo publicado en 1967. La escena encuentra a un tren desbocado, sin frenos, con destino trágico: se dirige hacia donde hay cinco trabajadores, distraídos o atados, según las versiones del tema, que nada podrán hacer para salvar sus vidas. Pero una persona sí, parada al costado de las vías, tiene la facultad de desviar la dirección del tren y dirigirlo hacia donde se halla un único trabajador, igual de distraído o atado. La respuesta se convirtió en una declaración de principios. ¿Sacrificar una vida para salvar otras cinco: sí o no?

(Una solución alternativa y novedosa que tiene casi once millones de visualizaciones de un niño ante el "dilema del tranvía")

La mayoría dice que sí, que accionaría ese interruptor que salvaría la vida de un grupo de personas a costa de la muerte de otra. El dilema y su pregunta filosófica permanecen vigentes en las discusiones sobre ética y moral. No envejece, es atemporal. Pero los tiempos cambian y las tecnologías empiezan a dominar escenarios relativos a la condición humana. La conducción, por ejemplo. Automotrices y compañías de innovación dirigen sus proyectos hacia un futuro con vehículos autónomos, donde las decisiones las tomen softwares de inteligencia artificial y no personas.

Un caso propuesto por el MIT: ¿matar a los peatones y al perro que cruzaron en rojo o sacrificar a los integrantes del automóvil?
Un caso propuesto por el MIT: ¿matar a los peatones y al perro que cruzaron en rojo o sacrificar a los integrantes del automóvil?

La incertidumbre moral del dilema del tranvía revive en la interfaz de los autos automatizados: ¿a quién debe atropellar un vehículo autónomo en situaciones extremas? La cognición, la capacidad de discernimiento y análisis humano, ya no interviene. Es decisión espontánea de un procesador. Investigadores del Media Lab del MIT -Instituto Tecnológico de Massachusetts- y del Departamento de Machine Learning de la CMU -Universidad Carnegie Mellon- fundaron una plataforma para resolver el problema del tranvía y del auto autónomo.

Implementaron un sistema de toma de decisiones basado en un tejido de votación. La solución estaría en la construcción de un consenso que determine cuál es el mal menor: el vehículo automatizado, por tanto, deberá respetar esa sentencia colectiva ética. Será una encuesta macro, particularmente concurrida, de la que conseguirán resultados para diversos dilemas éticos, ediciones alternativas pero orientadas a razonar sobre el "dilema del tranvía".

Una de las trece preguntas del Moral Machine
Una de las trece preguntas del Moral Machine

El sitio Moral Machine pertenece al MIT. Más de un millón de votantes participaron de un programa de votación de trece situaciones: cada usuario elige qué debe hacer un auto autónomo ante un desenlace trágico. Entre los actores que confluyen en las hipótesis de accidente hay adultos, jóvenes, mujeres, hombres, profesionales, delincuentes, mascotas, ocupantes, peatones y peatones que infringen la ley. Los resultados personales podrán ser cotejados con la opinión general en diferentes categorías: personajes más y menos salvados, preferencias de género, de especie, de edad, de valor social.

La intención es estandarizar un principio ético siempre personal y subjetivo. Ante la falta de un cimiento formal de valores, los científicos buscaron una aproximación según lo acordado por la sociedad. El resultado consta de un proceso de cuatro fases, desde el desarrollo de la encuesta hasta la aplicación del estudio. La primera etapa es de recolección de opiniones a través de la plataforma online. Luego se conciben modelos de criterios individuales (segundo paso) que construyen en comunión y combinación un panorama macro de preferencias generales (tercer paso). La última fase es de agregación: la adopción del algoritmo y la ejecución de los autos sin conductores en las situaciones de emergencia. La obra será del software pero la decisión obedecerá a lo que consideró el común de la gente.

¿Matar a dos ancianas que cruzan con el semáforo en rojo o atropellar a una niña y una mujer que respetó la señal? Otro de los dilemas del MIT
¿Matar a dos ancianas que cruzan con el semáforo en rojo o atropellar a una niña y una mujer que respetó la señal? Otro de los dilemas del MIT

Todo está publicado en un paper que lleva un nombre alegórico: "A Voting-Based System for Ethical Decision Making" (o "un sistema de votación basado en la toma de decisiones éticas"). Iyad Rahwan, coautor de la investigación y profesor del célebre MIT Media Lab, dijo: "La mayoría de las personas quieren vivir en un mundo en el que los vehículos minimicen el número de víctimas. Pero todos quieren que su automóvil los proteja a ellos primero a toda costa. Pero si todo el mundo actuase igual, los autos autónomos no reducirían las consecuencias de un accidente y todo acabaría siendo una tragedia". La conclusión del informe del MIT es ambigua: "De momento parece no existir una manera sencilla de diseñar un algoritmo que concilie los valores morales con el interés propio".

Algunas automotrices como Mercedes-Benz y compañías de tecnología como Google han liderado averiguaciones y estudios abocados a regar de certidumbre esta problemática que no hace más que obstaculizar la evolución de la industria automotriz. En Moral Machine, uno de los dilemas postula a una mujer embarazada o a un niño, dos atletas femeninas, una ejecutiva y una doctora. El auto no podrá detenerse antes del impacto pero puede elegir qué camino tomar. Entonces: ¿a quién debería atropellar un vehículo autónomo? Lo decidirá la sociedad.

LEA MÁS:

Qué histórica marca de autos se resiste a fabricar vehículos autónomos