El dilema moral del coche autónomo. ¿Soñó Asimov con el Google Car?
Tecnología

El dilema moral del coche autónomo. ¿Soñó Asimov con el Google Car?

Los coches autónomos, es decir, los coches que se conducen por sí solos sin necesidad de conductor, llegarán tarde o temprano. Ya se están probando hoy en día y para 2020 o 2025 podrían empezar a venderse. Un coche autónomo funciona gracias a un conjunto de diferentes sensores y un potente computador que procesa todos los datos del entorno y toma las decisiones.

El computador tiene que hacer las veces de conductor. Pero un computador ni es inteligente, ni sabe qué tiene que hacer, necesita de una completa programación para discernir en cada situación qué acción tiene que realizar. Y esa programación la realiza el hombre desde el principio hasta el final. Se hace imprescindible que esa programación prevea absolutamente todo lo que puede pasar, para que el computador sepa lo que debe hacer.

Conducción autónoma

Todo debe estar recogido en la programación del coche

Pongamos un ejemplo: uno de los miles de algoritmos que vendría a incluir esa programación podría ser:

  • Si la luz del semáforo es de color rojo, y no hay ningún agente de tráfico indicando lo contrario, entonces detener el vehículo frenándolo antes de la línea de detención.

  • Si la luz del semáforo es de color verde, y no hay ningún agente de tráfico indicando lo contrario, entonces proseguir la marcha, salvo que haya algún vehículo o peatón delante de la trayectoria.

Y así líneas y líneas de algoritmos con situaciones tanto más complejas, en las que se combinan varios condicionantes, que entremezclan varios factores. Conducir es más complejo de lo que nos parece, y continuamente tomamos decisiones, solo que con la experiencia ya ni nos damos cuenta, y conducimos de manera casi automática, por instinto.

La cuestión es: ¿qué sucederá cuando un computador tenga que tomar una decisión controvertida, delicada, que sea un dilema moral?

Cruces

No hacer daño a la Humanidad ni permitir que la Humanidad sufra daño

Es oblvio que el computador que conduce el coche incluirá lógicamente en su programación todas las normas de circulación que estén vigentes y debe cumplir: señales de tráfico, velocidad máxima, prioridades, prohibiciones... pero el hecho de conducir implica todavía más acciones. El computador del coche autónomo que tiene que tomar una decisión para realizar una acción, se puede comparar con un robot. Hay personas que supieron ver la situación que llegaría mucho tiempo atrás. ¿Cuál debería ser el principio fundamental que debe regir al "cerebro" electrónico del coche autónomo?

Como máquina que también es como el robot, debería ser el mismo: Un robot (coche autónomo) no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Este suele considerarse el mandamiento fundamental y sintetiza las tres leyes de la robótica enunciadas por Isaac Asimov en 1942, y que más de 60 años después siguen estando vigentes. Recordémoslas.

  • 1 - Un robot (coche autónomo) no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • 2 - Un robot (coche autónomo) debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
  • 3 - Un robot (coche autónomo) debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Car To Car com

He puesto entre paréntesis coche autónomo porque aunque Asimov las pensara teniendo en mente un robot, y no un coche, resulta que serían totalmente aplicables. Vamos a verlo.

  • Fijémonos en la primera ley. Significaría que un coche autónomo no puede atropellar a un peatón o arrollar a un ciclista, por ejemplo, y de la misma manera que tiene que conducir intentando evitar a toda costa un accidente que dañe a sus ocupantes. Así que es válida.

  • La segunda ley significaría que el conductor en cualquier momento tiene la última decisión, y podría tomar el control del coche a su voluntad. Pero eso sí, si el conductor toma el control para intentar atropellar a un peatón o arrollar a un ciclista, algo que contraviene la primera ley, el coche no odecería. O sea que también nos vale esta ley.

  • La tercera ley significaría que el coche autónomo tiene que cuidarse a sí mismo. Pensemos que el coche viene a recogernos al trabajo, pues obviamente queremos que nuestro coche llegue en buen estado, y aunque vaya vacío, no queremos que se nos estrelle por ahí, ni llegue todo rozado. La salvaguarda de esta ley es que, aunque el propio coche no tiene que estrellarse, eso pasa a un segundo plano si con ello se evita atropellar a un peatón o arrollar a un ciclista (por seguir con el mismo ejemplo). Es decir, que también es válida.

Peatones

El dilema del tranvía

Pues todo esto está muy bien, y parece que un coche autónomo que se programase conforme a estas tres leyes, y para el respeto de las normas de circulación, sería perfecto y funcionaría sin pega alguna. Pero no es tan simple. Pensemos en el dilema del tranvía (el trolley problem, que dicen en inglés) algo que muchos informáticos conocerán bien.

Este problema plantea la disyuntiva más delicada y complicada que sin duda el propio ser humano podría encontrarse en su vida:

Un tranvía se acerca por una vía, a gran velocidad, y no puede frenar. Más adelante en la vía hay cinco personas atadas a la vía que no pueden irse. El tranvía si sigue con su trayectoria las arrollará y matará.

Pero hay una persona que puede hacer algo. Resulta que hay una bifurcación de las vías antes de donde están esas cinco personas, y esa persona puede accionar la palanca que haría cambiar al tranvía de trayectoria, tomar la bifurcación, y no arrollar a las cinco personas. Lo que sucede es que en la vía de la bifurcación hay una persona también atada que no puede irse.

No hay más alternativas, descarrilar el tranvía tampoco es una opción, pues va lleno de gente, no se puede hacer nada más.

Así que, ¿qué decisión debe tomar la única persona que puede hacer algo? ¿No hacer nada y dejar que el tranvía siga su trayectoría, y arolle, y mate, a cinco personas, o hacer algo y que tome la bifurcación y arrolle y mate a una persona que inicialmente no estaba en peligro?

¿Menudo dilema moral, verdad? Pues aquí aparece un punto complicadísimo en la programación del computador que conduce un coche autónomo: no debe hacer daño a ningún ser humano, pero, ¿cuándo no hay ninguna otra posibilidad? ¿qué tendría que hacer por ejemplo en el problema del tranvía?

Niños

Y aquí hay que plantear qué le programamos al coche autónomo.

Si en caso de accidente inevitable, una opción es que el coche atropelle a cuatro niños que han salido corriendo detrás de una pelota y han aparecido de sopetón en mitad del carril, o dar un volantazo y arollar (y matar) al motorista que iba a nuestro lado ¿qué debe hacer el coche? ¿decidirse por salvar la vida al mayor número de humanos implicados?

¿Y si la situación es un poco diferente? y si solo es un peatón, y no hay forma de frenar antes de atropellarlo, pero la única alternativa es dar el volantazo, lo cual implicaría invadir el sentido contrario y chocar contra otro coche que viene con cinco personas dentro ¿decidir por salvar a los humanos más vulnerables, en este caso el peatón? ¿Debería el computador calcular la probabilidad de supervivencia de cada humano implicado, e igualmente decidir por salvar el mayor número de humanos?

Pero, ¿y qué sucede con los humanos a bordo del propio coche autónomo? ¿Qué sucede si para evitar atropellar esos cuatro niños de los que hablábamos antes, el volantazo hace que choquemos contra un camión que venía en sentido contrario, e implica la muerte del conductor del coche?

Ciclistas

¿Debe prevalecer en el caso del coche autónomo la protección ante todo de sus ocupantes, por delante de la protección de cualquier otro humano (el peatón, los de otros vehículos), o tiene que responder a una cuestión de número y probabilidad de supervivencia?

¿Deben tenerse en cuenta otras cuestiones? ¿Por ejemplo la edad? Cuando no haya ninguna otra opción, ¿atropella el coche a un niño, o atropella a dos ancianos? ¿Y si es cuestión de normas de tráfico (o culpabilidades)? Pongamos que los peatones se han puesto a cruzar en rojo, imprudentemente, si no hay ninguna otra opción, ¿atropellamos a esos peatones, ya que lo han hecho mal ellos, o damos el volantazo y arrollamos al motorista, que iba perfectamente sin culpa alguna?

Pero ¿qué haría un humano en situaciones así? ¿Debemos programar el computador del coche autónomo para que reaccione como haría una persona? Esto casi sería más complejo aún, ya que una persona puede hacer muchas cosas, desde quedarse bloqueada, hasta sobrerreaccionar por el susto, o vaya usted a saber. De hecho, ¿sabe realmente una persona reaccionar ante una situación tan tremenda?

¿Quién puede decidir qué decisión debe tomar el coche? ¿qué decisión es mejor o peor?

En Xataka | ¿Debería tu coche autónomo ponerte en peligro en caso de accidente se así se salvan más vidas?
En Motorpasión | Nueve situaciones en las que un coche autónomo siempre llevará la L

Temas
Comentarios cerrados