Autor/es reacciones

Marian Blanco Ruiz

Profesora permanente laboral de Comunicación Audiovisual y Publicidad, coordinadora de la línea de Publicidad y RR.PP. del programa de doctorado Ciencias de la Comunicación

El estudio publicado en Nature sobre la distorsión de edad y género en imágenes y modelos de lenguaje refuerza lo que la investigación de los estudios feministas lleva décadas señalando: la tecnología no es neutral, sino que reproduce, e incluso amplifica, los estereotipos y roles de género culturales preexistentes. La constatación de que las mujeres aparecen representadas como más jóvenes que los hombres en ocupaciones de prestigio refleja un patrón cultural de larga duración, vinculado a lo que Laura Mulvey denominó la ‘mirada masculina’. 

Estos resultados confirman, además, lo advertido por los distintos estudios de los feminist technoscience studies: los algoritmos aprenden de un archivo cultural sesgado, organizado en torno a jerarquías de género, raza y clase, entre otras. Lo preocupante es que, al incorporarse en sistemas automatizados con gran autoridad social, tales sesgos no sean solo simbólicos y se conviertan en discriminaciones con efectos reales en la vida cotidiana de las personas, por ejemplo, en el acceso a una cobertura médica, a un alquiler de vivienda o a un puesto de trabajo. Es precisamente esta parte práctica la aportación central de la evidencia de este trabajo. El artículo señala que no solo se representa a las mujeres como más jóvenes, sino que también se las evalúa como menos competentes en comparación con los varones. Este hallazgo demuestra que el ‘efecto Jennifer y John’ continúa estando muy presente en los desarrollos de IA.  

Estos resultados, no obstante, cuentan con la limitación del propio método de investigación. Los modelos están también sesgados por las propias herramientas que se emplean; sería interesante complementar este estudio con un análisis cualitativo que incorporase la mirada crítica y que pudiera leer dichos resultados en clave interseccional, ya que los sesgos de género se entrelazan con otros ejes de exclusión, como la clase o la raza, afectando de manera desigual a distintos colectivos. Pero, más allá de la descripción de estas dinámicas de desigualdad, este artículo demuestra que el desafío urgente es diseñar estrategias que cuestionen los supuestos culturales sobre los que se entrenan los modelos de inteligencia artificial y que permitan construir infraestructuras digitales más justas e inclusivas.

ES