Pasaríamos de gobierno de los sabios que hablaban los filósofos, al gobierno de las máquinas inteligentes que consiguen aprenden por sí mismas y mejoran de manera exponencial hasta conseguir los objetivos fijados. Suena bien, pero tiene sus "peros". Por ejemplo ¿qué pasa si en ese futuro ideal, es precisamente el ser humano, el mayor obstáculo para conseguir el objetivo? Por ejemplo para la supervivencia del planeta Tierra. ¿Qué pasa si el ser humano sigue contaminando? Decidirían las máquinas el final del ser humano.
Y otra ¿qué pasa si el objetivo fijado a la máquina inteligente de aprendizaje automatizado es hackeado o modificado? Pues bien este segundo problema ya lo tenemos aquí y es real. Se llama aprendizaje automático antagónico y consiste en manipular los sistemas tradiciones de aprendizaje para hacer que funcione mal. Hace unas semanas, Dawn Song, profesora de la Universidad de Berkeley, avisaba que la inteligencia artificial no solo no servirá de nada, sino que será muy peligrosa si no se consigue protegerla de hackeos malintencionados.
Y contaba varios ejemplos de laboratorio, pero reales. En uno, modificaron señales de tráfico para engañar a los sistemas de visión artificial de muchos vehículos autónomos. De tal manera que les hicieron aprender de manera automática que una señal de Stop en realidad significaba que podía ir a 50 kilómetros por hora. También han realizado antagonismos que hacen que un sistema de correo electrónico de respuesta automática acabe revelando los datos de las tarjetas de crédito. Ahora imaginen estos hackeos en sistemas militares que aprenden a no actuar o actuar de manera distinta a la prevista. Por eso la doctora Song, advierte que el aprendizaje automático antagónico puede usarse para atacar cualquier sistema basado en tecnología Es decir, para todo. Vaya futuro.