El otro día leí que un vehículo de esos que se conducen solos había tenido un accidente. Una desgracia como todos los accidentes, solo que este es algo especial por las circunstancias en que ocurrió. Los sensores no detectaron un camión de color blanco que se atravesó en la carretera con el sol de cara. El conductor que no conducía, sino que iba mirando una película (de Harry Potter, parece ser), ni se enteró. El coche no frenó ni redujo la velocidad. Y me asaltaron las dudas al leer el artículo.
Si uno leía el titular de la noticia, parecía que el culpable del accidente fue el mismísimo Harry Potter. Leyendo la noticia uno se daba cuenta que el conductor debería haber seguido las instrucciones del piloto automático que recomendaba que se mantuviera la vigilancia sobre un sistema en pruebas. Y por lo que leí, nadie mencionaba que un señor atravesó su camión en una carretera.
Cuando ocurre algún tipo de accidente normalmente no hay un único responsable. Los accidentes suelen estar causados por toda una cadena de excepciones, muy excepcionales que juntos y en una sucesión que nadie pensó posible, desencadena una terrible consecuencia. Por eso son accidentes.
El hecho no hubiera dejado de ser un accidente más, de los muchos que ocurren, si no fuera por la circunstancia de ser un vehículo autónomo que ha fallado.
Eso me llevó a investigar algunas cosas más y me topé con la moral machine del MIT donde se examina sobre algunas cuestiones éticas al público. Las preguntas pueden ser complejas y de difícil elección. ¿Debe un vehículo autónomo sacrificar la vida de sus ocupantes en un accidente para salvaguardar la vida de un grupo de peatones más numeroso? Muchos dirían que sí, pero ¿la gente estaría dispuesta a pagar por un vehículo dispuesto a matarlo, según en qué circunstancias?
Hasta ahora la seguridad de los vehículos se ha centrado en la supervivencia de sus ocupantes y ha obviado –en mayor parte– la de los demás. Si alguien se gasta un pastizal en un modelo ultraseguro ¿estará dispuesto a aceptar que el coche elija caer por un precipicio matándolo, para evitar una colisión con otro vehículo –menos seguro– pero ocupado por cinco personas?
Y estaba pensando qué rumbo tomará la fabricación de coches. Dentro de poco se dará el paso definitivo hacia los vehículos autónomos y un tiempo más tarde demostrarán tanta mejora en la mortalidad en carretera que se nos prohibirá prácticamente conducir. ¿Estaremos dispuestos a pagar por un artículo de lujo que sabemos no nos protegerá sobre todas las cosas? No sólo porque no pueda, sino porque estará diseñado así. ¿Nos tendrán que reeducar en el pensamiento ético para aceptar esos supuestos?
¿Sería el caso de aprovechar la coyuntura y recordar las leyes de la robótica de Asimov? Quizá nos fuera un poco mejor si todo automatismo las siguiera y evitáramos utilizar máquinas que decidan sobre la vida y la muerte de las personas.
