Los recientes accidentes de tráfico de los vehículos autónomos de Tesla han reabierto el debate sobre los dilemas que proponen estas nuevas tecnologías.
Los mencionados siniestros desnudan una realidad incontestable: la tecnología aún está cruda y hacen falta varios años para perfeccionarla.
Más allá del asunto tecnológico, de la sensibilidad de los instrumentos y de la rapidez de respuesta de los microchips en la programación de los algoritmos, residen quizás los dilemas más delicados: el legal y el ético.
Si bien el asunto legal ya cursa por los órganos legislativos del Primer Mundo, por el momento se sigue discutiendo en Europa si, a pesar de lo avanzada que esté la conducción autónoma, el conductor tiene permitido retirar las manos del volante.
Pero en lo que sí hay consenso es en que quien vaya a bordo (o al mando a distancia) es el responsable de lo que suceda, vaya o no activado el sistema autónomo. Es decir, en ningún caso se hace solidaria en la responsabilidad al fabricante del vehículo ni a la autopartista proveedora de la tecnología.
Otro punto por definir es la programación del algoritmo que decide un delicado y sensible asunto. Los programadores de estas instrucciones por medio de las cuales los sistemas de conducción autónoma actúan, surge el dilema moral de tomar la decisión frente a varias situaciones de conflicto moral.
Ejemplo: si inesperadamente se atraviesa un niño, una señora embarazada y una anciana, y si no se tiene ni el tiempo ni el espacio para frenar o eludirlos, ¿por cuál de ellos debe el algoritmo optar por atropellar?
Todo un dilema porque es una decisión de la sala de programación de los programadores para que los computadores actúen.
Las automotrices alemanas han anunciado sus lanzamientos para los años 2020 y 2021, por lo que para esas fechas ya el margen de error – siempre lo hay-, deberá ser mínimo para que la conducción autónoma no tenga fantasmas en la espalda.