Nola identifikatu artifizialki sortutako irudiak?
Adimen artifizialeko tresnak etengabe garatzen ari dira eta, ondorioz, gero eta zailagoa zaigu jakitea sarean egunero ikusten ditugun irudiak benetakoak diren edo ez. Momentuz ez dago eduki digital faltsu horiek zalantzarik gabe identifikatzeko modurik, baina zenbait konturi erreparatzea lagungarri gerta dakiguke.

Azken hilabeteotan adimen artifizialak (AA) izan duen garapenak fenomeno berri bat ekarri du: sare sozialen bitartez artifizialki sortutako irudien hedapen masiboa. Haietako batzuek nahasmen handia eragin dute erabiltzaileen artean, albiste politikoei lotutakoak izateaz gain, oso errealistak direlako. Orain arte halako irudiak ziurtasun osoz identifikatzeko gai den tresnarik ez badago ere, inkoherentziak bilatzea edo testuingurua auzitan jartzea lagungarria izan daiteke, adituek AFP berri agentziari azaldu diotenez.
Hitz gako batzuetatik abiatuta irudiak sortzea da Midjourney, Craiyon, DALL-E edo Grok bezalako plataformen egitekoa. Erabiltzaileen eskaerek etengabe elikatzen duten datu basean oinarrituta, irudiak sortzeko gai dira tresna horiek.
Erabiltzaile askok umorea egiteko helburuz erabiltzen dute teknologia hau; beste batzuek estetika hutsa bilatzen dute; baina badira beste batzuek irudiok nahasmena edo desinformazioa eragin nahian zabaltzen dituztenak.
Autore askok lan horiek benetakoak ez direla zehazten duten arren -plataforma eta sare sozial batzuek ere automatikoki egiten dute ohartarazpena-, testuinguruz kanpo zabaldu eta egiazkotzat ere aurkeztu izan dira. Muntaketa horiek detektatzen saiatzeko tresnak sortu dira edo garatzeko bidean daude, baina emaitzek zalantzarako tokia utz dezakete, AFPk berak egindako probek erakutsi dutenez.
«Adimen artifizialak irudi oso bat sortzen duenean, ez du beste argazki batzuen zatirik erabiltzen. Milaka edo milioika argazki erabiltzen dira milaka milioi parametro kontuan hartzeko», azaldu zuen Austriako Teknologia Institutuko ingeniari David Fischingerrek.
«AAk bere datu bankutik fusionatzen ditu irudi horiek; deseraiki egiten ditu eta, ondoren, pixelez pixel argazki berri bat eraikitzen du. Horrek esan nahi du amaierako irudi errenderizatuan jada ez dugula nabaritzen jatorrizko irudien arteko aldea», esan zuen Vincent Terrasik, Draft&Goal enpresaren sortzaileetako batek. Startup horrek adimen artifizialak sortutako edukiak detektatzeko teknologia bat merkaturatu zuen, unibertsitateei zuzendutakoa.
Argazkien metadatuak ere ez dira erabilgarriak izaten. Fitxategi baten nortasun agiri digitala dira datuok eta, batzuetan, artifizialki sortutako irudien jatorria agerian uzten lagun dezakete. «Zoritxarrez, horretaz ere ezin duzu fidatu, sare sozialek informazio hori sistematikoki ezabatzen dutelako», adierazi zuen Annalisa Verdoliva aditu eta Napoliko Federico II.a Unibertsitateko irakasleak.
ITURRIA ETA ALDERANTZIZKO BILAKETA
Adituek diotenez, artifizialki sortutako irudi bat detektatzeko modu bat haren jatorrizko testuingurua aurkitzea da. Kasu batzuetan sortzaileak berak plazaratzeko orduan nabarmentzen du zein teknologia eta tresna zehatz baliatu duen.
Horretarako, argazkia interneten argitaratu zen lehen aldia identifikatzen saiatu behar dugu. Irudien alderantzizko bilaketa lagungarria izan daiteke eduki bat bilaketa plataformetan indexatu ote den jakiteko. Hala, posible da argazki bera duten argitalpen zaharrak arakatzea, eta sare sozialetan asko hedatu diren irudien sorburua ezagutu daiteke.
Jatorrizko erregistroa aurkitzea ezinezko zaigunean ere, alderantzizko bilaketak kalitate hobeko bertsio batera eraman gaitzake, argazkia moztua edo aldatua izan bada, edo denboraren poderioz kalitatea galdu badu. Irudiak zenbat eta kalitate hobea eduki, orduan eta errazagoa izango da edizio horren zantzuak emango dizkiguten akatsak aurkitzea.
Alderantzizko bilaketak antzeko argazkiak antzemateko abantaila du. Hori baliagarria izan daiteke argazki susmagarri bat iturri fidagarrietakoekin alderatzeko.
Era berean, argazkien deskribapenak edota erabiltzaileen iruzkinak baliagarriak izan daitezke muntaketak detektatzeko edo adimen artifizialeko tresnen estiloa identifikatzeko. DALL-E, esaterako, ultraerrealismoagatik da ezaguna, eta Grok edo Midjourney, aldiz, pertsona ospetsuetan oinarritutako sorkuntzengatik.
Irizpide hau ona izan daiteke argazki bakoitza jatorrizko plataforman bilatzeko. Midjourney-ren kasuan, erabiltzaileen eta programa automatizatuaren arteko elkarrizketak arakatzeak eraman gaitzake emaitza on bat lortzera.
Dena den, argazkia sortu duen tresna zein den jakiterik ez badugu, komeni da irudia sakonki aztertzea.
IRUDIAK AZTERTZEKO ZENBAIT GOMENDIO
Esan bezala, ez dago errezeta magikorik, baina hainbat gauzari erreparatzeak lagun gaitzake. Esaterako, plataforma batzuek ur-markak sartzen dizkiete beren irudiei. Erreportaje hau ilustratzen duena X sare sozialaren Grok tresnarekin eginda dago, eta badu ur-marka.
Nolanahi ere, kasu, plataforma guztiek ez dutelako markarik jartzen eta, gainera, esportazioan hura kendu edo gerora moztu eta ezkutatzeko aukera badagoelako. Baliteke ur-marka hori ikusgai ez egotea ere. DALL-E 3, adibidez, metadatuetan sartzen hasi zen 2024. urtearen amaieran. Honek ere huts egin dezake, metadatuak ezabatzerik badagoelako.
Zalantza dagoenean, irudien pikortatzeari edo granulazioari arreta jarri, «oso desberdina izango baita AA-ren sorkuntza baten eta benetako argazki baten artean», adierazi zuen Tina Nikoukhah irudien prozesamenduan doktoreak.
AFPk probatutako adimen artifizialeko tresnen doako bertsioetan, sortutako irudiek mugimendu hipererrealistako pinturen estilo nahiko antzekoa dute.
Egia da adimen artifiziala etengabe garatzen ari dela eta, Annalisa Verdolivak azpimarratzen duenez, gero eta zailagoa dela anomaliak aurkitzea, baina hainbat elementu erreproduzitzeko orduan akatsak egin izan ditu, eta huts horiek gure alde erabil ditzakegu.
Zeri begiratu? Bada, adibidez, ezaguna da eskuak edo isladak (uretan, ispiluetan...) modu errealistan irudikatzeko adimen artifizialak izan duen zailtasuna. Gauza bera gertatzen da argazkien hondoarekin, «elementu bat zenbat eta urrunago egon, orduan eta deformatuago» egongo delako, Terrasik dioenez.
Baliteke atal batzuk nahitaez desitxuratuta ez egotea, baina emaitzak, argazkiak berak, zentzurik ez izatea. Irudi baten originaltasuna auzitan jartzean, «ona da zentzuaz fidatzea», dio Terrasik.
Irudiak gertakari jakin bat islatzen badu, baina jatorriari buruzko zalantzak baldin baditugu, onena da jazoerari buruzko informazioa bilatzea, iturri fidagarriek halakorik argitaratu ote zuten edo gertakaria bera benetan gertatu ote zen jakiteko.
C2PA, gardentasunerako konpromiso bat
Irudien jatorrira jotzeko bidea argitu asmoz, C2PA Coalition for Content Provenance and Authenticity delako protokoloa gero eta garrantzi handiagoa hartzen ari da trazabilitatea bermatzeko. Sortzaileen artean daude Microsoft, Intel, Adobe, BBC edota Truepic, eta enpresa gero eta handi gehiagoek bat egin dute: Amazon, Google, Meta, OpenAI...
Webgunean azaltzen dutenez, helburua «kolektiboki» estandar tekniko bat sortzea da, editoreei, sortzaileei zein erabiltzaileei hainbat bitarteko motaren benetakotasuna eta jatorria ulertzeko modu malguak emateko.
Aitortzen dute gaur egun ezinezkoa dela eduki digitala faltsua den edo ez antzematea, manipulaziorako softwarea gero eta sofistikatuagoa delako, metadatuak erraz manipulatu daitezkeelako eta ez dutelako jatorriaren froga ukaezinik ematen. Gainera, sustatzaileek argi uzten dute trazabilitaterako berme hori nahitaezko bihurtzearen aurka daudela. Hala ere, lanean jarraitzen dute protokoloa hedatzeko eta euskarri zein iturri berrietara egokitzeko: fitxategi formatu berria, adimen artifizial sortzailea, bideoen zuzeneko emanaldiak eta audioak, besteak beste.GARA

Martxoaren 3ko biktimen aurka jo du Gasteizko gotzainak: «Tentsioa dago»

Los kurdos lo pierden todo contra Damasco

«Xeberri eta biok hiru kantaldi egun berean egitera iritsi ginen»

Israel exhibe su impunidad en los escombros de la Unrwa en Jerusalén
