¿Qué prioridades morales debería tener un coche autónomo? Decídelo con este test
Con este test podrás saber qué es lo más importante en las decisiones de los coches autónomos. ¿Quién debe morir y vivir?
26 agosto, 2016 12:01Noticias relacionadas
- El nuevo Cupra será un SUV deportivo español 100% eléctrico, el primero de su tipo
- Airbus presenta un avión con las alas de un ave de presa, ¿el futuro de la aviación?
- Mira cómo una estación espacial china cae a la Tierra destruyéndose en la reentrada
- Las bicicletas eléctricas son mucho mejores que los coches eléctricos para nuestras ciudades
Con este test podrás opinar sobre las decisiones de los coches autónomos cuando se le presenten situaciones complicadas.
¿Vale una vida más que la otra? Si un tranvía fuese a matar a cinco personas, pero pudieses accionar una palanca para que cambiase de vía y matase sólo a una, ¿lo harías? Es un dilema moral muy popular que incluso se ha convertido en meme en Internet, por que nos obliga a tomar una decisión muy difícil.
No es difícil en el sentido de que no sepamos la solución; para la mayoría de la gente, accionar la palanca y matar sólo a una persona es la decisión lógica, pero eso no le contenta. Lo ideal, al fin y al cabo, es salvar a todo el mundo incluso aunque no sea posible.
Las difíciles decisiones de los coches autónomos
Es importante reflexionar sobre esto, no sólo porque es importante para nosotros como personas humanas, sino también porque los robots pronto tendrán que tomar este tipo de decisiones. Conforme los sistemas automatizados cubren más funciones, y las IA trabajan más para mejorar nuestra vida diaria, es inevitable que se encuentren en situaciones en las que tienen que valorar la vida humana.
El caso tal vez más evidente es el de los coches autónomos. Se ha hablado mucho sobre si son seguros y si nos podemos montar en uno sin miedo, hasta el punto de que ahora que Uber está probando sus primeros modelos tiene que regalar viajes para fomentar que la gente se monte en ellos.
Pero esa es sólo una parte de la historia; un coche autónomo no tiene que preocuparse sólo de la seguridad de sus ocupantes, eso es fácil, sino también de la de otros vehículos, ciclistas y peatones que comparten la vía. Y todo eso suponiendo que todo va a salir bien y que no va a aparecer un problema. Por ejemplo, si los frenos no funcionan, ¿qué debería hacer un coche autónomo?
Esta “Máquina Moral” creada por el MIT es una demostración de los dilemas a los que se tendrán que enfrentar estos sistemas. Ha sido desarrollado con el objetivo de obtener una perspectiva más clara de lo que las personas normales consideran una decisión acertada moralmente hablando; en otras palabras, para enseñar moralidad a las máquinas, antes hay que saber qué es lo que la humanidad considera moral.
Las pruebas son muy sencillas y fáciles de comprender; sólo tenemos que elegir la opción que consideremos “menos mala”, y el sistema llegará a una conclusión de lo que consideramos más importante y lo comparará con los resultados en general.
Crea tus propios escenarios y plantea dilemas a tus amigos
Además, también podemos crear nuestros propios escenarios, en los que podemos colocar diferentes tipos de personas (desde médicos a criminales) e incluso animales. También podemos decidir si la luz de peatones está en verde o en rojo, y si las personas morirán, sufrirán heridas o no se sabe lo que pasará con ellas.
¿Quién merece más vivir, una embarazada que cruza en rojo o dos médicos que van en el coche? ¿Un criminal que está huyendo con el semáforo en verde o un perro y un gato que están en el coche? Son decisiones que dicen mucho de nosotros mismos.
La cantidad de escenarios diferentes que puedes crear de esta manera es enorme, y si complicas mucho las cosas seguro que te costará decidir incluso si normalmente eres de las que responde al momento. ¿Qué decisión tomarán los coches autónomos?