Iraia Oiarzabal
Edukien erredakzio burua / jefa de redacción de contenidos
Elkarrizketa
Lorena Fernández

«Se nos escapa el talento femenino desde edades muy tempranas y por agujeros muy diversos»

Argazkiak: Aritz Loiola | Foku
Argazkiak: Aritz Loiola | Foku

Utilizar un traductor automático de Internet o dar ordenes a nuestro asistente de voz mientras preparamos la cena son gestos que seguramente mucha gente hace a diario, sin ser conscientes de las implicaciones que ello tiene. Con sus beneficios y sus riesgos. La Inteligencia Artificial avanza a pasos agigantados y es imprescindible aprender sobre ella con un espíritu crítico. Lorena Fernández (Basauri, 1982) es ingeniera informática y directora de identidad digital de la Universidad de Deusto. Junto a ella nos adentramos en los entresijos de las nuevas tecnologías y analizamos los sesgos que la rodean, incidiendo en la grave brecha de género existente también en este ámbito.

La Inteligencia Artificial (IA), las nuevas tecnologías y la redes sociales han entrado de lleno en nuestras vidas. Hablamos ya de que cada uno de nosotros tenemos una identidad digital, pero, ¿somos conscientes de qué estamos hablando?

Siempre digo que en mi casa tampoco saben qué es esto de la identidad digital, confían en que trabajo en algo honorable (entre risas). Tenemos que tener claro que en digital nuestra identidad se divide en un montón de pedazos que están en diferentes plataformas. El problema es que, cuando juntas todos los pedazos, a veces emerge información que de otra manera no ha salido. Esas plataformas obviamente están gestionadas por grandes empresas como Facebook, Google o Amazon que buscan su rédito económico y nuestros datos están en sus manos. Por ejemplo, tener un asistente de voz en casa que no sabemos hasta qué punto puede estar escuchando. De hecho se han dado algunos casos, en Alemania por ejemplo una persona solicitó que le dieran los audios que se estaban reseteando de su persona y no solo se equivocaron y le dieron los audios de otra persona sino que descubrió que se estaban almacenando sonidos de su casa incluso cuando no había emitido la orden de voz para que se activara. Esa identidad digital tiene unas reglas diferentes respecto de la analógica y tenemos mucho que proteger. Sobre todo porque dentro de un tiempo nos estamos yendo a nuevos mundos como los metaversos etc. y estamos regalando nuestra información. Esas plataformas tienen capacidad de incidir en nuestras decisiones y comportamientos.

¿Qué ocurre con las políticas de privacidad? ¿Son algo difusas o las aceptamos a ciegas?

Los casos más flagrantes han sido porque está muy difuso, pero la mayoría de situaciones están recogidas dentro del condicionado de uso. El problema es que lo que hacen es desarrollar todo un condicionado de uso con una lectura nada amigable y obviamente hay muy pocas personas que nos dediquemos a leer esa letra pequeña. Como ejemplo llamativo, en Londres lo que hicieron fue poner una wifi abierta en un parque y dentro de las cláusulas para conectarse había una denominada “Herodes”. Lo que decía era que si te conectabas a esta red consentías entregar a tu primogénito para toda la eternidad. La gente se conectaba, obviamente. En parte porque no tenemos una cultura de hacer un uso crítico de esa lectura de los términos de uso y en parte porque ellos juegan con eso.

Hay cosas que están permitidas y otras muchas que no. El caso de Cambridge Analytica de Facebook, se descubrió a posteriori que a la gente se le puede inducir a un estado de voto. De hecho, Facebook tiene algunas publicaciones en las que analiza el comportamiento de la gente solo con el uso que hacían de la plataforma, por ejemplo, adivinando si dos personas se van a enamorar. Normal, tienen un montón de información. Empiezas a aparecer en fotos con la misma persona, empiezas a darle likes, miras su perfil... Pero es que luego no solo observaba a los usuarios sino que ya intervenía. Quiero probar que en las redes sociales hay contagio emocional, ¿cómo lo pruebo? Muy fácil. Cojo dos grupos de usuarios y a un grupo le estoy mostrando constantemente noticias positivas y veo si eso hace que publiquen más cosas positivas. Al otro grupo le muestro noticias negativas y observo lo mismo. Esto mismo llevado, por ejemplo, a cuestiones como el voto.

¿Se puede hablar de una nueva forma de control social, quizá más sutil?

No me atrevería tanto a hablar de control social, más pensado en el extremo tipo sociedades en las que el "social score" gestiona tu vida, como en Black Mirror. Hay países como China que ya están desplegando ese modelo. Obviamente lo que han conseguido es que no valoremos adecuadamente nuestra privacidad. Yo por ejemplo no tengo ningún asistente de voz en mi casa. A día de hoy puedo tomar esta decisión pero dentro de unos años todos los electrodomésticos que vaya a comprar probablemente tendrán integrado un sistema de dar órdenes por voz. Con lo cual, me será muy complicado tomar la decisión de no meter “espías” dentro de mi casa. Ya hay un montón de caballos de Troya que hemos incorporado y en los que interviene mucho el balanceo que hacemos entre la comodidad y nuestra privacidad, y del que cada vez es más difícil alejarse.

Incluso si vamos a plataformas tipo Instagram. Me parece brutal que haya salido recientemente un estudio en el que se constata que desde la red social eran plenamente conscientes del daño que están haciendo en adolescentes con su algoritmo y aún así no hacen nada. Tú sabes que una chavala está teniendo un impacto emocional sobre su autoconcepto con lo que ve, con esas vidas perfectas... Pero, ¿qué le dices? ¿No utilices Instagram y aíslate socialmente del resto de tus compañeras? Hemos entrado en unas etapas digitales en las que empezamos a tener un montón de algoritmos desde que nos levantamos hasta que nos acostamos que tienen una incidencia clara sobre nuestra vida. Es importante que tengamos un mayor espíritu crítico sobre lo que hace la tecnología y luego, con esas reglas de juego, decidir si queremos jugar y cómo.

Esa identidad digital se antoja cada vez menos propia o individual y más predeterminada, ¿no es así?

Efectivamente, porque la problemática que tenemos con las principales redes sociales es que la mayoría tienen un algoritmo que decide qué información consumes. Esa falta de libre albedrío me pone los pelos de punta. Es cierto que hay otros modelos super positivos de gente que está haciendo cosas muy chulas en internet y que creo que es en lo que tendríamos que incidir más. Porque, obviamente, o te vas al monte y te aíslas o es difícil salir de esta sociedad digital que también tiene sus beneficios.

Sobre el uso de las tecnologías en el futuro ha mencionado el metaverso. Para quienes no estemos familiarizados con esto, ¿de qué se trata?

Esto es realmente viejo y ahora lo ha puesto otra vez de moda Facebook, yo creo que como una estrategia para desviar la atención de todos los problemas de privacidad que tenían. Los metaversos llevan con nosotros un montón de tiempo. Algunos han fracasado estrepitosamente y otros están muy presentes.

Empecemos por el término: es una contracción entre meta –que en griego es más allá– y universo. O sea, más allá del universo. Sería algo así como un mundo paralelo al analógico donde podremos estar en la oficina, en clase, en un concierto, con la familia... con un avatar que será nuestra representación digital. Hay diferentes niveles de metaverso. Algunos son más inmersivos y otros menos. En algunos simplemente te conectas y puedes jugar y relacionarte con tus amigos. Tienes tu avatar y lo ves en tu pantalla.

Ahora bien, el siguiente nivel de inmersión del metaverso sería ya utilizando gafas de realidad aumentada. Sería para mantenernos presentes en el mundo analógico pero le vas poniendo capas de información. Y el último nivel, que es el que propone Facebook, sería con un casco o gafas de realidad virtual y directamente nos sumergiríamos dentro de este mundo. Seríamos hologramas e incluso tendríamos objetos que nos rodean. Podremos replicar nuestra oficina y cada uno estaremos en nuestra casa con nuestras gafas, podremos ver a nuestro compañero y hacer una reunión... La clave de modelo de negocio es que vamos a tener que pagar los objetos. Se abre una espita en las que se podrían crear negocios para vender objetos para espacios en el metaverso.

Todavía está por ver si esto va a ser una burbuja más o si realmente va a tener despliegue. De hecho, veo más despliegue en lo empresarial donde ya se está desarrollando mucho para lo que se conoce como gemelos digitales. Es decir, una fábrica de coches quiere abrir una filial y antes hace el gemelo digital para ver cómo reducir ineficiencias y hacer pruebas para después hacerlo ya físicamente.

Parece ciencia ficción, pero realmente es un concepto que viene de lejos. La primera vez que aparece en un texto la palabra metaverso es en una novela de ciencia ficción, “Snow Crash”, de Neal Stephenson, en 1922. Igual dentro de unos años estamos muy familiarizados o no.

Respecto a la identidad digital y tecnologías, menciona la existencia de sesgos como el de género, por ejemplo. ¿Cómo se manifiesta?

La problemática con la que nos encontramos es que le hemos dado a la tecnología la propiedad de pensar que lo que decide un algoritmo va a ser mejor, que la tecnología va a tomar mejores decisiones. Es como la gran mentira de que la tecnología es neutra. Para nada. Hemos pensado que un algoritmo no estará sujeto a condicionamientos humanos, sesgos o estereotipos. Lo que estamos descubriendo es que, efectivamente, existe un sesgo algorítmico que puede ser de género, racial, de orientación sexual... Para mí hay una frase clave que dice Cathy O'Neil en el libro “Armas de destrucción matemática”: los algoritmos son opiniones encerradas en matemáticas. Eso es lo que tenemos que tener claro.

¿Cómo es esto del sesgo algorítmico? Hay diferentes maneras. Para que la inteligencia artificial empiece a tomar decisiones de manera autónoma tenemos que entrenarla y para ello hemos tenido que darle datos. Si recolectando la información de la que aprenderá la inteligencia artificial, no es representativa de la realidad, ahí le estamos colando un sesgo algorítmico. Un ejemplo: una investigadora del MIT estaba haciendo un proyecto de un espejo donde tu te asomabas a él y podías probarte cosas. Comenzó a hacer pruebas con los principales software de reconocimiento facial y se dio cuenta que no funcionaban con ella. ¿Por qué? Porque esta mujer era negra. Hasta que se ponía caretas blancas no funcionaba. Entonces hizo un estudio y detectó que los principales software comerciales de reconocimiento facial fallan más con mujeres y con mujeres negras. ¿Por qué? Porque habían sido entrenados con caras de hombres blancos.

Recolectando la información de la que aprenderá la IA lo que puede es reflejar prejuicios existentes. Si vivimos en una sociedad machista eso va a quedar patente. Si nos vamos al traductor de Google y le damos una frase sin sujeto, sin decir si el o ella es ingeniero o ingeniera, los resultados son llamativos. Se ve claro en los idiomas que no tienen notación de género en el sujeto. ¿Ahí que sale? Que él es médico y ella es enfermera. Salen cosas que son el fiel reflejo de la sociedad en la que vivimos.

A veces son casos que pasan desapercibidos. Estamos además en un sistema reactivo, tenemos que buscar el fallo y las empresas, si quieren, lo corrigen. En vez de incorporar la perspectiva de género desde el inicio en el proyecto. Hace un tiempo se hizo muy conocido que Amazon puso un algoritmo para optimizar la contratación en departamentos técnicos, entrenado con datos de contrataciones anteriores, y al tiempo descubrieron que no contrataba a mujeres. No porque el algoritmo detectara la palabra mujer y dijera que no. El algoritmo lo que hizo es aprender qué palabras eran las que estaban más presentes en los perfiles. Como la mayoría de contrataciones anteriores eran hombres, había unas palabras a las que les daba mayor valor. Si había paradas o interrupciones en las vidas laborales, que normalmente suelen estar asociadas a los cuidados y sabemos donde recae normalmente esa pata, también lo penalizaba. Por eso no siempre es tan evidente.

Habla de la necesidad de incorporar la perspectiva de género en el desarrollo de las tecnologías. En ese sentido, ¿podemos ligarlo con la brecha existente en torno a la presencia de mujeres en las carreras más científicas?

Sí, porque el problema de todo esto es que tenemos una grave falta de diversidad en la tecnología. En cuatro ámbitos, principalmente. Uno en los datos, entrenamos a los algoritmos con datos que tienen falta de diversidad con lo cual responde solo a una minoría de la sociedad que es una minoría con privilegios y poder económico. Esto es muy importante. Efectivamente, luego tenemos falta de diversidad en los equipos. Las principales compañías tecnológicas que a día de hoy están desarrollando IA solo cuentan con el 20% de mujeres. Y ya si nos fijamos en gigantes tecnológicos tipo Facebook y Google, solo tienen un 15% de mujeres. Esas mujeres no nos pueden trasladar su trayectoria vital a la tecnología. Un ejemplo muy simple: cuando se desarrolló el primer cinturón de seguridad de los tres anclajes a nadie se le ocurrió que podía ir una mujer embarazada porque el equipo era masculino.

También necesitamos diversidad en las compañías porque aunque haya muchas pequeñas compañías haciendo desarrollos, las mayoritarias están en manos de muy pocas que son las tecnológicas. No podemos esperar a que estas tecnológicas se autorregulen porque tenemos ya casos en los que cuando la empresa ve que la unidad de ética colisiona contra su modelo de negocio, optan por los despidos.

El último elemento que suelo mencionar, es la diversidad en los propósitos y las finalidades. A veces echo en falta que cuando se desarrollan nuevas tecnologías están pensadas en un único estándar que es masculino. Es un estándar de hombre caucásico, heterosexual de mediana edad, clase media y sin ningún tipo de discapacidad. Las aplicaciones van hacia ahí. Por ejemplo, en las pulseras que llevamos que controlan el tiempo que dormimos, cuánto andamos y demás es curioso que a nadie se le haya ocurrido incluir el ciclo menstrual. No se trata de agregar diversidad por el bien de la diversidad, se trata de restar homogeneidad por el bien del realismo. No puede ser que la tecnología solo responda a quienes tienen privilegios y poder social y económico.

Sobre la no presencia de mujeres en la ciencia, ¿es cierto que se sigue marcando desde niños y niñas?

Los datos la verdad es que no son muy alentadores. Solemos utilizar el símil de la tubería que gotea. Se nos escapa el talento femenino desde edades muy tempranas y por agujeros muy diversos. Influyen un montón de cosas. Tenemos el gran agujero de la confianza, que empieza desde edades super tempranas. Hay un estudio publicado en “Science” que dice que las niñas con seis años consideran ya que son menos listas que los niños. El problema es que eso nos persigue durante toda nuestra vida. El síndrome de la impostora está hay de manera constante. En HP publicaron un estudio porque empezaron a sacar promociones internas en la empresa y las mujeres no se presentaban. Se dieron cuenta que ellas se presentaban solo si cumplían el 100% de las condiciones que se mostraban en la oferta. Los hombres con cumplir el 60%, adelante. Hemos vivido socializadas en un entorno en el que a nosotras se nos pide la perfección y a ellos la valentía.

Tenemos agujeros como la falta de referentes femeninos. Si no tienes dónde mirarte... Y no solo eso, también cómo socializamos las carreras tecnológicas y el imaginario que tienen sobre una persona que trabaja en tecnología. A mi me han llegado a preguntar a ver si tengo amigos o si voy a tener familia. En su cabeza tienen una idea, que muchas veces les viene de televisión. Creen que somos una especie de Sheldom de Big Bang Theory y no quieren ser eso. En esa época quieren encajar, socializar... Tenemos que romper con un montón de imágenes preconcebidas de lo que parece que tienes que ser cuando te dedicas a la tecnología. Por eso a mí me gusta mucho un estudio que dice que los pequeños matices de la lengua importan mucho. Plantea que igual tenemos que empezar a hablarles de hacer ciencia y no tanto de ser científicos. Los agujeros son muchos y para cuando llegan a FP o la universidad se nos ha vaciado la tubería.

La influencia de los roles predeterminados es evidente, tanto de niños como en la edad adulta. En el caso de las mujeres esos roles están muy ligados a los cuidados. Como pequeña muestra ha quedado constatado que durante el confinamiento las mujeres del ámbito académico redujeron de manera notable sus publicaciones mientras los hombres las aumentaron...

Tal cual. La pandemia ha sido brutal. Le robo la frase a Pilar Kaltzada que decía que hemos estado todos y todas en la misma tormenta pero no en el mismo barco. En el ámbito de la investigación ha quedado super patente. Porque si bien ellas han bajado muchísimo la producción científica en cuanto a publicación, han mantenido las horas de tutorías en clase. También se hizo un estudio en el que se preguntaba quién se había encargado de los cuidados durante el confinamiento y mayoritariamente habían sido ellas. Efectivamente los roles se siguen manteniendo. No hemos conseguido durante la pandemia poner en valor la importancia que tienen los cuidados, incorporando a los hombres en ello y prestigiar los cuidados.

Si queremos conseguir una tecnología más social y humana, necesitamos que los cuidados estén en el centro también incluso de la tecnología que estamos desarrollando y del modelo de sociedad que estamos desarrollando. De hecho, lo vinculo mucho con el hecho de que me pregunten qué pasa para que las niñas y las jóvenes no estén decantándose por carreras tecnológicas. Siempre digo que no hay que arreglar a las niñas, ellas no están estropeadas, sino que lo que en realidad tenemos que arreglar es el entorno que les rodea.

De hecho, cuando hablamos de hombres que se puedan dedicar a ámbitos científicos o tecnológicos, aunque también en otros muchos, se da por hecho que van a tener confianza en sí mismos, que van a tener una gran capacidad de esfuerzo y que van a ser ambiciosos. En el caso de las mujeres demuestra constantemente una «debilidad» en ese aspecto.

La ambición vista en las mujeres es horrible. Hubo un análisis que se hizo en los informes PISA en los que preguntaba a chicos y chicas si consideraban que era positivo ser ambicioso y ellos lo veían positivo y ellas no. Se nos socializa así. En el mundo de la tecnología también ocurre que las mujeres siempre han estado presentes y tenemos a grandes figuras y sin embargo en cuanto esos ámbitos empiezan a ganar en prestigio se las aparta. Por eso digo que tenemos que prestigiar los espacios que ocupamos las mujeres pero no para que luego los ocupen los hombres y desaparezcamos nosotras. Ocurre lo mismo en el ámbito de la cocina, son “los grandes cocineros”. Cuando dicen prestigio y cocina, ¿quiénes están ahí? La gran trampa de todo es que las mujeres salimos de casa pero los hombres nunca entraron.