Maddi Txintxurreta
Aktualitateko erredaktorea / redactora de actualidad

Mujeres «sexis» frente a hombres «valientes» y «justos»

Una máquina que ha analizado 3,5 millones de obras para dar con los adjetivos asociados a hombres y mujeres en la literatura confirma que los atributos que caracterizan a ellas responden a detalles físicos, mientras que a ellos les define el comportamiento.

Una mujer ojea un libro en una librería de Pekín. (Wang ZHAO/AFP)
Una mujer ojea un libro en una librería de Pekín. (Wang ZHAO/AFP)

Hermosas» y «sexis» para las mujeres; «justos», «racionales» y «valientes» para los hombres. Son los adjetivos, en inglés, que más se usan para describir a unas y a otros. Atributos asociados al cuerpo para ellas y aquellos que tienen que ver con el comportamiento para ellos. Este es el reparto semántico que ha quedado registrado en millones de obras literarias.

Una máquina desarrollada por investigadores de la Universidad de Copenhague ha analizado 3,5 millones de libros para distinguir los adjetivos atribuidos a las mujeres y a los hombres, y ha comprobado que los utilizados en el caso de las mujeres tienden a describir la apariencia física, mientras que las palabras que se refieren a los hombres se concentran, y ensalzan en muchas ocasiones, en el comportamiento.

Los investigadores daneses han trabajado con una enorme cantidad de libros en un importante esfuerzo por averiguar si hay alguna diferencia entre los tipos de conceptos que describen a hombres y mujeres en la literatura. Utilizando un nuevo modelo informático, han rastreado un conjunto de datos de 3,5 millones de libros, todos publicados en inglés entre los años 1900 y 2008. Las obras son una mezcla de literatura de ficción y de no ficción.

La conclusión a la que han llegado ya la presuponían, pues hace tiempo que el movimiento feminista estudia y promueve el lenguaje inclusivo de género. Lo novedoso es, quizás, la facticidad del estudio y su alcance, teniendo en cuenta la copiosidad del muestreo. Cabe destacar que no se trata, tampoco, de un estudio sobre obras decimonónicas o anteriores, sino más bien recientes; herencia, seguramente, de estilos y generaciones anteriores, pero actuales, aún sin subvertir.

Lectura de prejuicios

Hasta ahora, los lingüistas han solido analizar la prevalencia del lenguaje y el sesgo de género, pero usando conjuntos de datos más pequeños. Ahora, mediante los avances informáticos, se pueden implementar algoritmos de aprendizaje automático para analizar enormes cantidades de datos; en el caso del estudio de la Universidad de Copenhague, 11.000 millones de palabras.

«Los algoritmos trabajan para identificar patrones y cuando se observa uno, se percibe como si fuera ‘verdadero’. Si alguno de estos patrones se refiere al lenguaje sesgado, el resultado también será sesgado. Los sistemas adoptan, por así decirlo, el lenguaje que nosotros usamos y, por lo tanto, nuestros estereotipos y prejuicios de género», explica Isabelle Augenstein, la científica y profesora asistente del departamento de informática de la universidad de la capital danesa.

Los investigadores advierten de que el análisis tiene sus limitaciones, ya que no tiene en cuenta las diferencias en los grados de sesgo de género dependiendo de si los libros fueron publicados durante un periodo anterior o posterior dentro de la línea de tiempo del conjunto de datos. Tampoco distingue entre los géneros literarios –por ejemplo, entre novelas románticas y de no-ficción–.

Del estereotipo al axioma

A pesar de ello, Isabelle Augenstein aclara que pudieron ver «claramente que las palabras que se utilizan para describir a las mujeres se refieren mucho más a su apariencia que las palabras usadas para describir a los hombres. Por lo tanto, hemos sido capaces de confirmar una percepción generalizada, solo ahora a nivel estadístico».

Los investigadores extrajeron de los 3,5 millones de libros los adjetivos y verbos asociados con sustantivos específicos del género (por ejemplo, “hija” y “azafata”), luego analizaron si las palabras tenían connotación positiva, negativa o neutral. Finalmente, categorizaron las palabras en tres categorías semánticas: «comportamiento», «cuerpo», «sentimiento» y «mente».

El análisis demuestra que los verbos negativos asociados con el cuerpo y la apariencia aparecen cinco veces más a menudo para las figuras femeninas que para las masculinas, y que los adjetivos positivos y neutros relacionados con el cuerpo y la apariencia ocurren aproximadamente dos veces más a menudo en descripciones a mujeres. Los hombres, por el contrario, se describen con más frecuencia usando adjetivos que se refieren a su comportamiento y cualidades personales.

Según la profesora de la Universidad de Copenhague, este encasillamiento semántico tiene consecuencias, y pone un ejemplo: «Si el lenguaje que usamos para describir a hombres y mujeres difiere en las recomendaciones a la hora de buscar trabajo, por ejemplo, influirá en a quién se ofrece el trabajo si las empresas utilizan sistemas de TI para clasificar a estas personas a través de aplicaciones de trabajo».

Los algoritmos utilizados para crear máquinas y aplicaciones que puedan entender el lenguaje humano son alimentados con datos en forma de material de texto que está disponible en línea, sea del año que sea. Esta es la tecnología que permite a los smartphones reconocer nuestras voces y permite a Google proporcionar sugerencias de palabras clave.

Además, aunque muchos de los libros fueron publicados hace ya dos décadas, todavía juegan un papel activo, según señala Augenstein. Los estereotipos se vuelven inmanentes, la hablilla axioma. Como mujer sexi y hombre valiente.