José Mendiola Zuriarrain

Han sido 11.000 millones de palabras escrutinadas en más de tres millones de libros las que han descubierto que el lenguaje empleado en libros y novelas, durante más de cien años, es sexista. Un grupo de científicos de la universidad de Copenhague han llevado a cabo un descomunal trabajo de campo en el que se han analizado de forma masiva textos escritos en idioma inglés, en libros publicados entre los años 1900 y 2008 ¿Qué se estaba analizando exactamente? La correlación entre géneros y calificativos buscando un patrón: el diferente tratamiento entre mujeres y hombres en textos escritos.

El estudio ha empleado un sistema basado en inteligencia artificial y aprendizaje automático para analizar palabra a palabra las obras publicadas en este período y concluir que el tratamiento a mujeres y hombres es abiertamente sexista. El análisis concluye que a las mujeres se les atribuye meramente calificativos relacionados con su físico, mientras que para los varones las referencias mayoritariamente se centraban en su fortaleza y personalidad. Los atributos negativos relacionados con el físico y el aspecto en estas obras se observan hasta cinco veces más en las mujeres que en los hombres. Entre las palabras que más se usan para describir a las mujeres están “hermosa”, “encantadora”, “preciosa”, “sexy”, soltera”, “fértil” o “exquisita”. Para ellos, los adjetivos más frecuentes son “justo”, “pacífico”, “racional”, “honorable”, “brutal”, “valiente” o “justo”.
“Este sistema puede reducir el sexismo en más ámbitos”

“No somos los primeros en confirmar el sexismo del lenguaje”, explica a EL PAÍS Alexander Hoyle, uno de los coautores del estudio, “pero los sistemas computacionales nos permiten corroborar estas sospechas a gran escala”. Este científico describe el modelo computacional creado como “ligero” aunque, eso sí, reconoce que se ha dedicado un considerable esfuerzo en “establecer las diferentes hipótesis y crear los modelos”.

El estudio, con todo, no solo sirve como confirmación del sexismo aplicado de forma masiva, al lenguaje, sino para “identificar y desvelar nuevas áreas en las que se está aplicando”, explica Hoyle. El autor se refiere a emplear estos motores en otros ámbitos de forma automática y así alertar de esta manipulación del lenguaje:P“por ejemplo, la aplicación Textio puede alertar si un puesto de trabajo prioriza a candidatos masculinos”, destaca el estadounidense.

El estudio a gran escala se refiere a libros publicado durante más de cien años y hasta 2008. ¿Por qué es relevante, entonces, ahora? Se podría pensar que las obras contemporáneas son más respetuosas en el tratamiento de los géneros, pero realmente esta realidad no resolvería un grave problema: los algoritmos aprenden de los textos ya escritos y publicados, con lo que un sistema puede dar como bueno un patrón que se repite varias veces (por ejemplo, los relacionados con la belleza y la mujer) y asimilarlos en su ejecución actual.

Esta realidad se vería reflejada en los sistemas basados en inteligencia artificial actuales, que basan su estructura en patrones contaminados por este sexismo. “Los algoritmos se basan en los patrones”, explica Isabelle Augenstein, catedrática en ciencia computacional y coautora del estudio. “Si estos patrones se basan en un empleo sexista del lenguaje, el resultado estará contaminado”, añade. Con todo, el modelo presentado cuenta con sus limitaciones (no es capaz de discriminar entre tipos de libro) y el equipo sigue trabajando de cara a perfeccionarlo.