Según The New York Times (29 de junio de 2015), Google está experimentando con una flota de 100 automoviles autoconducidos eléctricos que están diseñados para conducirse a sí mismos con total autonomía. El usuario viaja como pasajero, ni siquiera puede ser tenido como un copiloto, pues lo único que puede controlar es el botón de encendido “START” y un botón rojo llamado E_STOP, para detenerlo en casos extremos, sin ningún otro dispositivo más, o sea, sin volante, pedal de freno, ni acelerador. El coche está dirigido por medio de una aplicación smartphone que a la manera de un SMS recibe la indicación del destino elegido por el usuario. Esta la única intervención humana del proceso.
El autor del artículo afirma que la idea de los automoviles autodirigidos, está lejos de ser una realidad, pero que el objeto de su artículo es tratar un asunto aun no resuelto: “estos coches autodirgidos deberán tener un código ético, lo que presenta algunos interesantes dilemas”.
Como ejemplo de ello, el autor cita un artículo de la revista australiana WIRED (29 de junio de 2015), en el que Jason Millar plantea algunos de los problemas éticos que presentan los coches autodirigidos, dado que estos coches-robot parecen ser los coches del futuro, por sus característica ecológicas y porque, al parecer, podrían evitar accidentes debidos a imprudencias o fallos humanos.
Millar presenta un ejemplo del posible dilema ético, que él llama “El problema del Túnel”, planteando lo siguiente: “un coche autodirigido viene por una carretera de montaña de una sola dirección y se acerca a un túnel estrecho. Justo antes de entrar en el túnel, un niño aparece en el centro de la calzada, bloqueando enteramente la entrada del túnel, siendo el coche incapaz de frenar a tiempo para evitar atropellarlo. Ante esta disyuntiva se presentan dos opciones: atropellar y matar al niño o desviarse y estrellarse contra la pared del túnel, lo que significaría una muerte probable de algunos de los pasajeros del automóvil. Ante este dilema, cabe preguntarse, ¿quién debería decidir si el coche continúa recto o se desvía para salvar al niño? ¿los fabricantes que programaron el coche? ¿los usuarios que aceptaron los riesgos de viajar en un vehículo que se dirige a sí mismo?; ¿los legisladores que autorizaron la circulación de este tipo de vehículo?
En opinión de Millar, en un coche estándar la decisión moral de una persona determinaría la opción a seguir, sin embargo, en este tipo de vehículo, todo va a depender de su programación, pues ni él, ni los pasajeros pueden intervenir.
Es lógico pensar que el usuario, el fabricante y el legislador deberían prever una situación como ésta y programar la “conducta” del coche, por lo que éste debería optar, basándose en un código ético predeterminado.
Quedaría aún por resolver la autodeterminación de los pasajeros. Millar sugiere una solución al problema, manifestando que se podría adoptar el mismo enfoque de los profesionales de la medicina: el consentimiento informado. Afirma Millar, “En salud, cuando se deben tomar decisiones que tienen un contenido bioético o moral, es una práctica estándar para las enfermeras y los médicos informar a los pacientes de las opciones de tratamiento, efectos secundarios y otros riesgos asociados, para que los pacientes tomen su propia decisión. Este mismo enfoque del consentimiento informado se podría aplicar a los coches sin conductor.” La idea es que los diseñadores e ingenieros deberían informar a los usuarios de cómo ha sido programado el coche y estos a su vez deberían dar su consentimiento para que en una situación extrema siempre acepten el código ético del vehículo.
En nuestra opinión, el dilema que aquí se presenta, es extensivo a otros avances tecnológicos en torno a la robótica y a la inteligencia artificial, que pueden presentar objetivos problemas éticos aún difíciles de prever.
Deja tu comentario
Debe iniciar sesión para escribir un comentario.