El dilema moral en la automatización de vehículos
Hace años ya veíamos los primeros prototipos de coches autónomos: eléctricos, conectados al teléfono, sin volante ni pedal de freno y con solo dos botones, uno de inicio y otro para posibles emergencias. La revolución de los sistemas de automatización de vehículos es una realidad imparable. Aún queda un largo recorrido para llegar a la conducción completamente autónoma pero los nuevos coches ya van implementando algunos detalles que nos llevan a este nuevo mundo.
Los sensores deben estar en un continuo aprendizaje puesto que de ellos dependen las acciones que el vehículo escoja, por esta razón, la industria automotriz invierte cada vez más en Inteligencia Artificial para responder a un mercado altamente competitivo.
Gracias a los algoritmos decretamos la información de manera fiable, pero debemos adaptarnos a cada nueva situación. El coche autónomo tiene que entender lo que ocurre a su alrededor, pero el gran problema que existe es que no tiene capacidad de improvisación. Hoy en día contamos con coches capaces de aparcar por sí mismos o independientes en la velocidad estipulada, pero más allá, el conductor siempre tiene la responsabilidad de dirigir mediante el volante.
La Unión Europea tiene varios retos por delante antes de impulsar la completa automatización de los vehículos. El más importante: la seguridad vial dado que los coches sin conductor tendrán que compartir la carretera con otros no autónomos, viandantes y bicicletas. Asimismo, también hay que tener en cuenta otras cuestiones como la responsabilidad en caso de accidente. Si la tecnología es quien tiene el control, habrá que seleccionar cómo debemos actuar en caso de accidente.
- El dilema moral
Todos nos hemos puesto delante del experimento mental diseñado en 1967 por Philippa Foot llamado “trolley problem”. Una decisión extremadamente complicada: un tren, una muerte inevitable y una decisión inaplazable. Complejo, ¿cierto? Pues este pequeño ejercicio mental también sirve para el futuro de los coches autónomos.
Durante los últimos tiempos, un grupo de científicos liderados por el MIT ha preguntado a millones de personas cuestiones como: ¿Qué vida debe proteger un coche autónomo: la de los ocupantes, peatones o la de los ocupantes de otros coches? ¿De qué depende esta elección? ¿Qué factor hay que tener en cuenta? ¿edad, género, número, especie de los implicados…? Muchas incógnitas y ninguna respuesta en firme.
En 2018 conocíamos que se había llegado a alguna conclusión tras encuestar a más de 40 millones de personas de 233 países distintos. De alguna forma, es el atlas moral más desarrollado que puede existir ya que en ningún caso se ha preguntado a tantísima gente. Los investigadores de ‘Moral machine’, un juego del que os hablaré posteriormente, se plantearon la necesidad de permitir al público participar en una discusión social, que perjudica a todos los habitantes de la tierra y que tiene una gran relevancia.
Asimismo, era una buena oportunidad para recopilar datos e identificar qué factores piensan que las personas son importantes a la hora de que los coches autónomos tomen decisiones de vida o muerte. En primera instancia parece que había factores comunes en las respuestas. Por ejemplo, salvar la vida humana antes que la de un animal, proteger al máximo número de personas u optar por aquellas personas que siguen las normas frente a los que se las saltan.
Todo se desarrolla mediante algoritmos; estos permiten a los coches autónomos reaccionar adecuadamente ante cualquier circunstancia. Ahí está la clave, en programar y entrenar a los coches para que tomen siempre la decisión correcta en un entorno imprevisible, pero no es tan fácil.
Otro ejemplo que nos ayuda a comprender un poco mejor sobre este dilema moral es el del ‘Tranvía’. Este es un clásico del que todo el mundo ha escuchado hablar. Pongámonos en situación: Eres el conductor del tranvía que avanza a una gran velocidad y sin frenos. Al final del recorrido hay un grupo de cinco personas de mediana edad. Puedes elegir salvarlos dándole a una palanca que llevas y esto te hará cambiar de vía. Al final de esta, nueva, a la que te has dirigido hay un bebé. ¿A quién decides atropellar? ¿Cómo actuarías?
Es cierto que, normalmente, se escogería salvar al mayor número de personas posibles, pero: ¿Y si en vez de un bebé fuese un familiar tuyo? ¿Conseguiría esto cambiar tu decisión? Seguramente sí, por eso mismo no existe una solución universal a este dilema, sino que hay muchas corrientes e ideas diferentes.
Esto que parece una reflexión ante un problema imaginario, se trata de una situación real a la que se enfrenta la conducción autónoma. El hecho de no tener a un conductor al mando, que se encargue de tomar la decisión, hace que sea la propia Inteligencia Artificial quien tenga que tomar las riendas de la decisión mediante el aprendizaje que va adquiriendo de los algoritmos.
A veces resulta aparentemente sencillo tomar una decisión desde fuera, pero cuando tienes que hacerlo se complica. Moral Machine es un juego online desarrollado por el Massachusetts Institute of Technology (MIT) que te permite decidir a quién debería matar el coche virtual en caso de no tener más opción.
Asimismo, los internautas pueden decidir si el vehículo tendría que desviarse o no de su camino y matar a sus ocupantes, también de diferentes edades, profesiones o sexos. El objetivo es que seas tú quien tome una decisión tan compleja como esta. Una acción de la que los algoritmos deben aprender para poder llegar a los coches automatizados, que es ya una realidad de futuro.
Es cierto que cada vez la Inteligencia Artificial está cogiendo más fuerza en decisiones importantes. Hace unas semanas os hablaba sobre el proyecto que sacaba a la luz el departamento de innovación del ejército de EE. UU. llamado ‘In The Moment’ que desarrolla una IA que puede decidir a quién se debería atender en una emergencia médica.
Sabemos que la Inteligencia Artificial es la tecnología con más potencial construida por el ser humano, pero habría que fijar dónde podría estar el límite. ¿Será viable en un futuro contar con coches completamente automáticos? ¿Cómo se establecerán los límites? ¿Conseguiremos poner solución a este gran dilema moral?