Coches, política y el algoritmo de lo éticamente correcto.

Son varios los grupos de nuestra sociedad los que luchan por poseer el <monopolio de lo éticamente correcto>, por ejemplo; los partidos políticos.

Pero no será esta la entrada del blog en la que se realice una crítica política. Que no cunda el pánico.

Hoy hablaremos del coche autónomo.

Podríamos ponernos técnicos y hablar de la realidad y futuro del coche autónomo o ponernos emocionales y entrar en el debate de que la pasión y el placer de conducir no terminarán nunca, pero hoy quería plantear algo diferente: una reflexión sobre los debates éticos que traerá aparejado el coche autónomo.

De entre todos los posibles, creo que hay dos que supondrán un desafío por el tipo de elecciones que, como individuos y sociedad, nos tocará hacer. El primero gira en torno a la programación del coche autónomo para situaciones en el que peligren vidas humanas, el segundo respecto al espacio que dejamos a lo humano cuando la solución tecnológica se demuestra mejor.

Coche autónomo y las «leyes de la robótica»

No hay aficionado a la literatura de ciencia ficción que no conozca las tres leyes de la robótica propugnadas por Asimov en sus relatos de ficción. A saber:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley

Sus lectores también sabemos que gran parte de la obra de Asimov se basa en el conflicto para cumplir esas leyes cuando la máquina alcanza un cierto nivel de inteligencia (en Singularity hub tienen un artículo al respecto) y pensando en trasladarlo al coche autónomo también es fácil concluir que hay que llegar a compromisos.

En situaciones de peligro el conductor está forzado a hacer elecciones casi instantáneas: un niño de repente cruza la carretera y está ahí delante ¿pegamos un volantazo y chocamos con la mediana? ¿y si lo que hay al lado es terraplén? ¿y si quien cruza es un perro? ¿Y si lo que viene es un coche frontalmente?

Podríamos partir de que el coche autónomo sería mucho más prudente y que no se distraería, por lo que tasa de situaciones de peligro debería ser menor, pero es imposible evitar todas las situaciones de peligro al volante. En el caso de un conductor humano, una vez afrontando la situación de peligro, podemos entender la decisión basada en reflejos y casi instantánea que toma, pero con un ordenador es distinto.

Y es diferente porque es una decisión que se toma en frío, que se programa para que el coche se decante por una opción con todo el tiempo del mundo para sopesar pros y contras… una decisión que implica elegir vidas humanas. ¿Cómo es posible programar algo así? ¿hay un algoritmo que pueda incorporar una visión ética que nos convenza?

¡Sacad vuestras propias conclusiones!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *