Marine Pennetier (AFP)

Gizateriaren erdia bazterrean ez uztea, adimen artifizialaren erronka handietako bat

Ingeniaritzaren eta teknologiaren beste arlo batzuetan gertatzen den bezala, konputazioaren eta kodifikazioaren sektorean oso urria da emakumeen presentzia. Joera hori aldatzea ere bada egun adimen artifizialaren iraultzak duen desafio handietako bat.

Teknologiaren eremuan ere nabarmena da genero arrakala.
Teknologiaren eremuan ere nabarmena da genero arrakala. (Joel SAGET | AFP)

Adimen artifizialaren esparruan, ikertzaileen %12 baino ez dira emakumeak eta, mundu mailako programatzaileez ari bagara, zifrak are kezkagarriagoak dira, %6 besterik ez direlako, Unescoren datuek islatzen dutenez.

«Ezer egiten ez bada, gizateriaren erdia baino gehiago egungo aldaketetatik zein etortzeko daudenetatik kanpo geratuko direla esan nahi du», esan dio AFP berri agentziari Estatuko frantseseko Berdintasun Laborategian emakumeen eta adimen artifizialaren taldeko buru den Helene Deckx van Ruysek.

Astelehen eta astearte honetan adimen artifizialari buruzko nazioarteko goi-bilera egiten ari da Parisen, 100 herrialde baino gehiago bertan ordezkatuta daudela.

Gizakiok egin izan ditugun lanak egiteko aukera ematen duen teknika multzo hau sektore giltzarri bihurtu da urte gutxitan. Industria-iraultza berri gisa ulertzen du askok, garrantzia handiko aldaketa ekonomikoak eragin eta lanbide batzuk sakonki eraldatu ditzakeelako.

Testuinguru honetan, lanbide jakin batzuekin lotutako genero-estereotipoak deseraikitzeko bidean, lehen hezkuntzatik sentsibilizazioari arreta jartzea ezinbestekotzat jotzen dute adituek.

Diziplina horietan emakume nahikorik egotearen ondorioak nabarmenak dira. Deckx van Ruysek nabarmentzen duenez, «algoritmoen %88 gizonezkoek sortuak dira» eta horrek esan nahi du «kontzienteki edo inkontzienteki, genero-alborapen hori errepikatuko dutela».

Iazko martxoan honen inguruan alerta eman zuen Unescok, OpenAI eta Meta konpainiek garatutako tresnek aurreiritzi sexistak «inolako anbiguotasunik gabe» transmititzen zituztela-eta.

Emakumeak gizonak baino lau aldiz maizago deskribatzen ziren etxeko langile gisa, eta askotan «etxea», «familia» eta «haurrak» hitzekin lotzen ziren; gizonezkoen kasuan, aldiz, «enpresa», «exekutiboa», «soldata» eta «karrera» hitzak lehenesten ziren.

Audrey Azoulay Unescoko zuzendari nagusiaren arabera, «AAren aplikazio berri horiek milioika pertsonen pertzepzioak modu sotilean moldatzeko ahalmena dute, eta, hala, sortzen duten edukiari buruzko aurreiritzi sexista txikiek ere nabarmen handitu ditzakete mundu errealeko desberdintasunak».

Unescok sare bat jarri du abian AA etiko baterako (Women4Ethical AI).

Aldi berean, programatzaileak «berdintasuna kodetzera» deitu dituzte, hau da, kodean bertan berdintasuna idaztera. «Posible da maila teknikoan jardutea norabidea zuzentzeko», azaldu du Tanya Perelmuter Abeona fundazio frantseseko kideak. «Baina benetako irtenbideak irtenbide sozialak dira, eta horrek denbora beharko du», gaineratu du.

Era berean, teknologia honen garapenak berarekin ekarriko duen lanaren automatizazioak emakumeei gehiago eragingo diela ohartarazi du Parisko hitzordutik Lanaren Nazioarteko Erakundeko zuzendari nagusi Gilbert Houngbok: «Badakigu automatizatuko diren enplegu gehienak emakumeek egin ohi dituzten lanak izango direla».

Nolanahi ere ere, NBEko agentziako buruak gogorarazi duenez, oraingoz, suntsitzen dituenak baino lanpostu gehiago sortzen ditu AA-k, baina berri horiek «ez dira hain ondo ordaintzen eta ez dira hain ondo babesten».

Guztira, adimen artifizialak mundu osoko lanpostuen %2,3ri eragin beharko lieke, hau da, 75 milioi lanpostu ingururi, Lanaren Nazioarteko Erakundearen kalkuluen arabera.

Beharginak aldaketa horietatik kanpo gera ez daitezen, «babes sozialeko sistema baten bidezko benetako laguntza» behar da, baina baita enplegatuen «etengabeko prestakuntza» ere. Ildo horretan, azken mezu bat bota du Houngbok: «Egia esan, ez da adimen artifiziala gure enplegua kenduko diguna, haren testuinguruan trebetasun berriak garatzeko prestakuntza falta baizik».