Itsaso RODRIGUEZ
Donostiako Informatika Fakultateko irakasle eta ikerlaria, UPV/EHU
3 BEGIRADA:

Adimen artifiziala bai, baita energia kontsumoa ere

Datuak hodeian gordetzeko, azpiegitura garrantzitsuak behar dira.
Datuak hodeian gordetzeko, azpiegitura garrantzitsuak behar dira. (GETTY)

Azkeneko hamar urteetan interneteko trafiko globala 20 aldiz hedatu da eta, gure egunerokotasunean adimen artifiziala integratu dugunetik, esponentzialki hazten jarraituko duela dirudi. Igoerarik handiena irudien eta bideoen edukien trukeari lotuta dago, azkeneko urteetako mugikorren kamerak zein internet konexioa hobetu egin dira eta. Hortaz, datozen urteetan sortuko diren edukien kantitatea ere handiagoa izango da.

Datu hauek guztiak zerbitzarietan zentralizatuta daude; zehazki, erabiltzen ditugun sareko zerbitzu digital guztiak, posta elektronikotik hasita ChatGPTraino, nola edo hala erlazionatuta daude zerbitzari horiekin. Munduan zehar zabaltzen diren zerbitzariei esker, posible da informazio guztia “hodeian” gordetzea, gizarteak edozein unetan planetako edozein lekutatik eskura izan dezan. Modu berean, gero eta gaitasun konputazional handiagoa behar dugunez teknologiaren funtzionamendu egokia bermatzeko, kokapen geografiko desberdinetan banatutako instalazio hauek oso azkar ugaltzen dira, eta horrekin batera azpiegitura horiek funtzionatzeko behar duten energia kantitatea ere bai.

Adimen artifizialak, eskala handiko beste prozesu informatikoek bezala, batera lan egiten duten prozesadore, txartel grafiko, disko gogor eta RAM memorien energia-kontsumo izugarria du atzean. Energia hau berriztagarria izatetik urrun dago, izan ere, gure karbono aztarna digitalaren gehiengoa datuak “hodeian” gordetzetik dator. Beraz, adimen artifizialaren etorrerarekin eta gaur egun mundu guztiak ahotan duen ChatGPT bezalako plataformak iristearekin batera, gero eta gaitasun konputazional gehiago behar dugu, horrek sortzen dituen ondorio eta arazo guztiekin: horrelako sareak mantentzeko sekulako energia eta ur kantitatea behar da.

Hain zuzen, ChatGPT eta bestelako adimen artifizialeko sistemek izugarrizko ur kantitatea behar dute egunero, bai datu-zentroa elikatzen duten zentral elektrikoen kontsumorako, baita hozte-sistema berarentzat ere. Horrek teknologia-enpresa handien -besteak beste, Microsoft, Google edo Amazon- kontsumoak gora egitea eragin du. Adibidez, ChatGPT-ri 5-50 galdera egiten zaizkion bakoitzean, honek litro erdi ur inguru kontsumitzen dituela estimatzen da. Litro erdiko botila batek asko ez dirudien arren, ChatGPT-ren milioika erabiltzaileak kontuan hartzen baditugu, beharrezkoa den ur-kantitatea gehiegizkoa da. Era berean, Google-k uraren erabileran %20ko hazkundea izan duela jakinarazi du, eta hori ere adimen artifizialean egindako lanari dagokio neurri handi batean.

Microsoft-era bueltatuz, adimen artifizialean liderra izateko, produktuak biziki garatzen ari da, 2030erako karbono-igorle negatiboa izateko konpromisoa hartzearekin batera; hau da, 2030erako igortzen duena baino karbono dioxido (CO2) gehiago ezabatzeko asmoa du. Helburu hori lortzeko modu bat datu-zentroen funtzionamenduarekin lotutako CO2aren isurketak murriztea da, eta horretarako, Microsoften planen ardatza energia nuklearra da. Zehazki, energia nuklearra bere adimen artifizialaren datu-zentroak elikatzeko irtenbide gisa erabiltzea da ideia, elektrizitate eta hozte asko behar baitute. Konpainiak lan-eskaintza bat argitaratu du, non energia nuklearreko ingeniari baten bila dabilen, energia garbien proiektu berritzaileak diseinatzeko eta ezartzeko ardura izango duena.

Argi dago adimen artifizialeko sistemen energia-kontsumoaren arazoa errealitate bat dela. Orain, enpresa handiek eskaintzen dituzten alternatiben zain egon beharko dugu hori nola konpontzen duten ikusteko. •