En Igualdad: ¿Son los algoritmos machistas?
En 'La Brújula' Cristina Villanueva trae la sección 'En Igualdad, en la que nos habla de cómo pueden ser machistas determinados algoritmos que lo analizan todo y que conforman la inteligencia artificial.
Resulta que los datos históricos que alimentan a los algoritmos que lo analizan todo, que conforman la inteligencia artificial y que predicen nuestros gustos, el tiempo o habilidades laborales, son machistas, explica Carina Lopes, responsable de Think Tank de Digital Future Society.
Y es que no es tan sencillo como eliminar el dato hombre-mujer de los algoritmos, ya que "los estudios demuestran que los algoritmos pueden hacer esta deducción por sí mismos", dice la responsable de Think Tank.
"Nosotros defendemos que tiene que haber equipos más equilibrados de género, que tiene que haber programadoras y programadores", indica Lopes. Sin embargo, existe una gran dificultad para que las mujeres puedan acceder al sector de la programación, ya que solo el 13,5% de los trabajadores de IA son mujeres.
Sin embargo, los seres humanos cambiamos nuestros patrones, de repente nos da un episodio de valentía o de miedo, o de amor… Y el algoritmo ha sido incapaz de predecirlo. Marta García Aller, colaboradora en Onda Cero y escritora que acaba de publicar "Lo Imprevisible: todo lo que la tecnología quiere y no puede controlar" comenta que "al final es verdad que aprenden de la rutina y de los patrones, pero otras veces queremos cosas que los algoritmos no terminan de entender".
Con las Apps de citas, que se supone que nos ayudan a encontrar el amor según nuestras aficiones y gustos, "la cuestión está en cuáles son los criterios que ha llevado a esa aplicación a determinar que dos personas son compatibles", señala la colaboradora.
Además, García Aller destaca que "hay estudios que demuestran que hay patrones machistas y que están perpetuando estereotipos ya no del siglo XX... sino del XVIII". "Hay que elegir algoritmos justos y para que sean de esta manera hay que saber cómo funcionan, y decirle a los fabricantes que los hagan de manera más transparente porque los algoritmos pueden ayudarnos a combatir la discriminación que está en la sociedad", indica.