Estos dilemas experimentales son ahora una necesidad real. Si hablamos de coches autónomos, sin conductores, los algoritmos que deciden su conducción necesitan tener previstas todo tipo de situaciones extremas en carretera. Y para eso es necesario saber cómo pensamos: ¿Salvamos a los humanos o a las mascotas? ¿A los pasajeros o a los peatones? ¿A los hombres o a las mujeres, a los jóvenes o los viejos? ¿A los de clase alta o a los de nivel más bajo? ¿Priorizamos salvar el mayor número de vidas? Y el fundamental: ¿Decidimos que el vehículo siga su camino sin actuar o le hacemos cambiar de dirección?
Hace cuatro años el famoso Instituto Tecnológico de Massachusetts diseñó un experimento llamado Moral Machine que tiene una web en la que millones de personas hemos contestado a diversos dilemas morales. Busquen la web si tienen curiosidad. Ahora la revista Nature ha publicado los primeros resultados que revelan que la ética varía mucho en función del país.
Por ejemplo en los países asiáticos no prima salvar a los más jóvenes, ni es determinante el número de personas. Son respuestas muy variadas según los países y su nivel económico y cultural.
La conclusión por tanto es que la Inteligencia Artificial necesita siempre de criterios éticos pero ni siquiera una respuesta colectiva garantiza que se elija la mejor solución. Difícil dilema.