Estamos en el año 2035, y un automóvil sin conductor lleva a su dueño a la oficina. Súbitamente, un autobús escolar, viajando en el otro sentido, pierde el control e invade su carril.
A la derecha del automóvil circula un ciclista sin casco protector. A la izquierda va otro ciclista, éste sí con casco. En una fracción de segundo, el automóvil sin conductor debe realizar una aparentemente imposible decisión: continuar de frente, arriesgando lastimar a varios niños o girar y posiblemente golpear a uno de los ciclistas.
Dilemas morales como éste en una época fueron simples charlas de café para filósofos académicos. Pero, ahora, son tomados muy en serio por los fabricantes de automóviles mientras se apuran por introducir vehículos autónomos a nuestras carreteras.
Estas compañías saben que no pueden costear un accidente de alto perfil, cuestionable moralmente, con su tecnología "sin conductor". Especialmente un accidente en que un auto autónomo está programado para proteger a su ocupante sacrificando a terceros.
Los fabricantes de automóviles, por tanto, han comenzado a preguntar a teóricos de la ética si los vehículos autónomos podrían – y debería – utilizar algoritmos para replicar las decisiones "éticas" que los conductores humanos realizan. Esos algoritmos podrían, en teoría, revisar resultados posibles de choques y clasificarlos. Pero como el ejemplo del autobús escolar aclara, esa opción "menos mala" podría todavía herir o matar a un ser humano.
"Aunque es un problema poco frecuente, los fabricantes de vehículos autónomos necesitan especificar alguna acción (en el evento de un choque imposible de evitar), y la acción equivocada podría llevar a demandas masivas y titulares alarmantes", dice Patrick Lin, director del grupo de ética y ciencias emergentes en la California Polytechnic State University.
Lin ha hablado ya con varios fabricantes, incluyendo Daimler, BMW y Tesla, así como la compañía de tecnología Google, acerca de los asuntos de ética. Aunque no tiene permitido hablar sobre la naturaleza de las conversaciones, dice que "la industria automotriz es generalmente más sensible a estos problemas éticos que los observadores exteriores. Es su dinero, su trabajo y su reputación lo que está en juego, después de todo".
La Fundación Daimler y Benz, de Alemania, dotada por el fabricante de automóviles para apoyar la investigación, va a publicar sus resultados sobre la ética de la conducción autónoma en mayo.
Además, la mayor parte de la industria automotriz alemana está participando en un debate tipo mesa redonda sobre la ética de los vehículos autónomos organizado por el ministerio de transporte. Otros participantes incluyen académicos, la industria de seguros y representantes del consumidor.
De acuerdo a los involucrados, la mesa redonda no ha calificado a los problemas éticos como una barrera contra la primera ola de tecnologías para la conducción sin conductor, tales como la conducción de baja velocidad en carretera. En vez, han enfatizado medidas de prevención de choques.
Volvo, que empezó el año pasado a probar 100 vehículos sin conductor en caminos públicos en Gothenburg, tiene un punto de vista similar sobre la conducción autónoma a baja velocidad. "No existirá ningún tipo de lista sobre cómo el automóvil deberá actuar en situaciones problemáticas", explica la compañía. En vez, Volvo busca evitar que el vehículo se vea involucrado en este tipo de situaciones.
Pero cuando la conducción autónoma se permita a velocidades más altas y en espacios urbanos más congestionados, los dilemas éticos se volverán difíciles de evitar. Por ejemplo, ¿qué sucede si un peatón súbitamente salta frente a un auto sin conductor?
Chris Gerdes, director del Center for Automotive Research en Stanford, pregunta: "¿Tiene más responsabilidad el automóvil que la de frenar? ¿Debería invadir otro carril o pegarle a un auto estacionado u otro vehículo en vez del peatón?
Actualmente, las barreras tecnológicas inhiben este tipo de respuesta "ética" en el caso de un choque.
Herbert Winner, director de la facultad de ingeniería automotriz de Darmstadt University of Technology, nota que un automóvil autónomo tendría dificultad en predecir correctamente lo que un peatón u otro automóvil podría hacer en los últimos segundos antes de un posible choque – haciendo que se vuelva muy difícil calcular cualquier maniobra para evitar la colisión.
Incluso si el futuro trae avances en la capacidad de las computadoras, un algoritmo para choques en un automóvil sin conductor que escoge un resultado con un desenlace fatal para humanos crearía problemas legales enormes – tanto para los programadores como para los fabricantes de automóviles.
En Alemania, los dos primeros artículos de la constitución del país establecen que la dignidad del hombre es "inviolable" y su protección el deber del estado. Los jurados alemanes han interpretado el significado de estos artículos en que es ilegal sopesar el valor de una vida contra otra.
Lin dice que este tema constitucional ha surgido en sus conversaciones con la Fundación Daimler y Benz. También se ha sido discutido en las conversaciones de la mesa redonda en Alemania.
Por esta razón, algunos expertos favorecen un "generador de resultados al azar". Sin embargo, Lin sugiere que es tan preocupante éticamente "dejarlo al azar", cuando existen potencialmente algunas razones para preferir un resultado sobre otro, por más incómodas y desagradables que sean estas razones".
Dado este embrollo de dilemas éticos, parece poco probable que los legisladores les den a los ingenieros de software mano libre para decidir el código moral para vehículos autónomos. Y todavía podría ser que los consumidores pidan ajustes éticos programables – permitiendo al dueño del automóvil la última decisión de qué hacer cuando ese autobús se dirija hacia ellos.
También, te pueden interesar estos artículos
La leyenda de los unicornios de Silicon Valley
¿Qué espera el mayor productor de shale del mundo?
Homeopatía, el sarampión y el reinado de lo absurdo
Financial Times