Beñat ZALDUA

Facebook no quiere carpinteros negros ni taxistas blancos

Una investigación académica ha probado que, aunque un anunciante no establezca criterios de raza y género en la publicidad insertada en Facebook, el algoritmo de la red se encarga, en nombre de la optimización, de introducir sesgos a menudo discriminatorios.

No es nuevo que los anuncios que Facebook enseña a sus usuarios pasan varios filtros que acaban produciendo sesgos en la recepción de dichos anuncios. Dicho fácil, como bien saben quienes usan esta red social –ocurre con muchas plataformas que ofrecen a las empresas publicitarse en internet–, es bastante más probable que recibas anuncios de cosméticos si eres mujer que si eres hombre.

Es algo que ha acarreado algunos problemas a Facebook, ya que en lugares como EEUU la Ley establece que no puede haber discriminación, por ejemplo, en anuncios de ofertas de empleo o de venta de viviendas. Pero siempre se solía poner el foco en un sesgo voluntario. Es decir, en la decisión de una determinada marca de utilizar la capacidad de segmentación que Facebook ofrece para hacer llegar su anuncio a un público determinado.

Nuevas investigaciones, sin embargo, apuntan a que el sesgo puede ser bastante más autónomo de lo que parece. Muchas veces no es el anunciador quien elige una segmentación específica para su producto, sino que es la propia plataforma que vehicula la publicidad la que introduce esos sesgos –a menudo vinculados al género o a la raza–.

Al menos eso es lo que han concluido seis investigadores estadounidenses tras analizar la forma en que, más allá de las peticiones expresas del anunciador, Facebook muestra los anuncios a los usuarios. Al no tener acceso a los algoritmos que la plataforma utiliza para ello, el experimento ha sido, por decirlo de alguna manera, manual. Es decir, los investigadores se han gastado 8.500 dólares poniendo diferentes anuncios en Facebook para analizar luego, sin que la compañía lo supiese, quiénes acababan siendo los receptores.

5 experimentos, 5 conclusiones

El experimento llevado a cabo por investigadores de la Northeastern University, la University of Southern California y Upturn, llega a cinco principales conclusiones. La primera es que la cantidad de dinero que invierte el anunciador funciona ya como un primer filtro en manos de la plataforma que vehicula el anuncio.

Es decir, un mismo anuncio –con el mismo contenido y el mismo criterio de segmentación– no llegará a las mismas pantallas si yo invierto diariamente un euro o 50 euros en promocionarlo. Según probaron los investigadores con varios anuncios, cuanto más bajo es el presupuesto, el anuncio llega a más hombres. Cuanto más alto, más mujeres son las alcanzadas. La razón es sencilla: al menos en EEUU, está estudiado que las mujeres hacen click con más facilidad en los anuncios de internet, por lo que Facebook cree que debe cobrar más por enseñar una publicidad a mujeres, aunque el anunciador no haya solicitado segmentar su anuncio por géneros.

Segunda conclusión: el contenido mismo del anuncio hace que la plataforma introduzca varios sesgos a la hora de divulgarlo; de nuevo en nombre de la optimización, sin que el anunciante así lo haya pedido. Por ejemplo, los investigadores pusieron los mismos criterios demográficos de segmentación a varios anuncios con contenido diferente y descubrieron que, sin así solicitarlo ellos, aquellos que «estereotípicamente tienen más interés para las mujeres, por ejemplo los cosméticos, llegaban en un 90% a mujeres». De forma idéntica, descubrieron que un anuncio de hip hop era enviado por Facebook a usuarios sobre todo negros (90%), mientras que un anuncio sobre música country era recibido en un 80% por usuarios blancos. Sobra decir que los investigadores no introdujeron ningún criterio de raza en su segmentación: fue la plataforma que vehicula los anuncios la que lo hizo.

La imagen invisible que Facebook ve

Los dos siguientes experimentos están vinculados a la imagen de los anuncios. El segundo de ellos resulta especialmente significativo, pues explica parcialmente cómo funciona una máquina en la que el humano poco tiene que decir una vez introducido el algoritmo. Los investigadores pusieron dos anuncios idénticos al ojo humano, pero añadieron una foto transparente a cada uno. Es decir, una foto que el usuario no podía ver, pero la máquina podía detectar. Los resultados, los esperables a estas alturas: el anuncio llega a diferentes personas dependiendo de la imagen, pese a que los usuarios no podían verla.

Finalmente, el quinto experimento se presenta como el más relevante, pues tiene que ver con los criterios de género y raza con el que Facebook distribuye, entre otros, ofertas de empleo y de viviendas que, a priori, interesan a todo hijo e hija de vecina. En el caso de las ofertas de empleo, el experimento fue sencillo: los investigadores diseñaron varios anuncios ofertando diferentes empleos. A excepción del trabajo ofrecido, el contenido era el mismo, y la segmentación demográfica indicada a Facebook también. Igualmente, la cantidad de dinero invertido en todos los anuncios fue la misma. El algoritmo de la red social, sin embargo, hizo que el anuncio fuese a parar a destinatarios bien diferentes. Por ejemplo, un 72% de los usuarios que recibieron el anuncio de un trabajo de carpintero eran blancos; el 90% eran además hombres. Los anuncios para trabajar en cajas de supermercado llegaron en un 85% a mujeres, y las ofertas de taxistas fueron enviadas, en un 75%, a usuarios negros.

El experimento se repitió con ofertas de casas, obteniendo como resultado variaciones importantes en los receptores de un mismo anuncio en función de variables como si la casa estaba en alquiler o en venta. Todo para confirmar que, más allá de las preferencias demográficas que una marca pueda indicar a Facebook para optimizar su anuncio –algo que a priori tiene sentido–, muchas veces es la misma red social la que introduce sesgos discriminatorios que no tienen por qué haber sido solicitados por la firma anunciante.