Para la gente que creció con la TV de los 80s, la imagen del auto increíble debe resultar familiar. Un auto computarizado capaz de manejarse solo y actuar de manera independiente para ser el socio de su conductor, el investigador Michael Knight.
Hoy día, lo que parecía una fantasía infantil en los 80s, es lo que fabricantes de automóviles y compañías tecnológicas como Google prometen para el futuro cercano (aunque sin el blindaje indestructible de K.I.T.T): Autos que se manejen solos.
De hecho, algunas marcas como Tesla incorporan ya sistemas que sirven como un piloto automático, capaz de manejar el auto en la mayoría de los casos, pero que aún requiere supervisión humana para evitar accidentes en condiciones no previstas.
Considerando la experiencia actual con los vehículos autónomos ya existentes y las horas de prueba que han realizado las diferentes compañías, lo más probable es que serán más “seguros” que los humanos. De ser así, los vehículos autónomos reducirían una de las principales causas de lesiones y muertes en la sociedad actual.
Sin embargo, aun así, seguirán existiendo situaciones donde un accidente sea inevitable. Esto genera preguntas difíciles:
¿Cómo debe deben de programarse los vehículos autónomos para situaciones en los que es imposible evitar lesiones o muertes, especialmente cuando existen decisiones de fracción de Segundo sobre a quién poner en riesgo? Por ejemplo:
- ¿Debe el vehículo autónomo darle prioridad a la seguridad de sus pasajeros sobre la de otros humanos involucrados en el accidente?
- ¿Quién toma ésta decisión? ¿El fabricante? ¿El dueño del vehículo? ¿El gobierno vía regulaciones?
- ¿Quién debe tener la responsabilidad penal y civil que resulte de un accidente que involucre vehículos autónomos?
Al menos un fabricante, Mercedes Benz ha dicho que la prioridad de sus vehículos autónomos es proteger a la persona que va dentro por sobre los transeúntes o personas de otros vehículos.
Igualmente, en 2017, Alemania paso una legislación que indica que en autos con capacidad de ser autónomos, el conductor tiene la responsabilidad si un accidente ocurre cuando el conductor maneja, pero si el sistema autónomo está controlando el auto, el fabricante del auto sería responsable.
Al final del día la pregunta es si queremos dejar este tipo de decisiones éticas en manos de máquinas que pueden no tener el mismo criterio que nosotros.
¿Qué pasa por ejemplo, si yo personalmente, prefiero ponerme en riesgo antes que atropellar a un grupo de niños que se atraviesan de manera imprudente, pero mi auto decide arrollarlos para protegerme?
Independientemente de las responsabilidades legales, ¿podría mantener la conciencia tranquila tras un incidente como este?
A diferencia del “auto increíble” de la televisión, la Inteligencia Artificial actual no tiene un sentido moral propio, así que es nuestra responsabilidad asegurar que su comportamiento sea programado de manera que siga las pautas de lo que los humanos consideramos moral y ético.