Vijetnam je bio rat iz dnevne sobe, Ukrajina rat sa TikToka, a sukob na Bliskom istoku postaje prvi koji (lažno) emituje vještačka inteligencija. Od lažnih snimaka bombardovanja Dubaija do algoritama koji negiraju stvarne žrtve, AI je postala najjače oružje dezinformacija i više ne možemo vjerovati sopstvenim očima

Dronovi, projektili i algoritmi. Tehnološki napredak oduvijek je imao aktivnu ulogu u ratnim sukobima, ali u aktuelnoj eskalaciji na Bliskom istoku vještačka inteligencija (AI) postala je ključni akter u načinu na koji se rat interpretira i konzumira. Otkako su Sjedinjene Države i Izrael pokrenuli koordinirane napade na Iran, a Teheran uzvratio udarima na američke baze širom Arapskog poluotoka, digitalni prostor je preplavljen falsifikovanim snimcima i slikama koje generiše AI. U ovom informativnom haosu, čak i Grok, vještačka inteligencija platforme X Elona Muska, postala je izvor dezinformacija.

Historija nas uči da komunikacijske tehnologije uvijek definišu sukob svog vremena. Invazija na Ukrajinu brzo je dobila epitet „prvog TikTok rata“ zbog neviđene prisutnosti amaterskih snimaka borbi. Godinama ranije, Facebook je igrao aktivnu ulogu u Siriji nakon Arapskog proljeća, dok je prije pola vijeka demokratizacija televizije pretvorila Vijetnam u „rat iz dnevne sobe“, direktno utičući na javno mnijenje u SAD-u.

Danas prisustvujemo novom fenomenu: AI je omogućila stvaranje lažnih dokaza bez potrebe za montažerskim znanjem. Alati koji su do juče generisali nerealne prikaze, u posljednjih nekoliko mjeseci su napredovali do tačke u kojoj je granica između stvarnosti i simulacije postala gotovo nevidljiva.

Dezinformacije generisane vještačkom inteligencijom ne ograničavaju se samo na falsifikovanje grafičkih dokaza. One djeluju i u obrnutom smjeru: negiranjem istinitih događaja. U slučaju koji je izazvao međunarodne reakcije, Grok je lažno tvrdio da su autentični snimci iranske škole bombardovane u američko-izraelskom napadu, gdje je stradalo oko 150 osoba, uglavnom djevojčica, zapravo stari snimci iz Afganistana. Ovaj „lažni fact-check“ direktno je sabotirao pokušaje dokumentovanja ratnih zločina u realnom vremenu.

Istovremeno, ista AI je kao autentične prihvatila snimke navodnih sigurnosnih kamera koji su prikazivali eksplozije u vojnim bazama u Dubaiju i Iranu, iako su bili potpuno sintetički. Grok se pokazao kao nepouzdan verifikator, posebno u trenucima kada je informacija malo, a pritisak javnosti ogroman.

Pretraga na Googleu o ratu na Bliskom istoku sada vraća desetine video zapisa bombi napravljenih isključivo pomoću AI. Najekstremniji primjeri uključuju:

Simulacije udara na Burj Khalifu: Video snimci projektila koji pogađaju najvišu zgradu na svijetu u Dubaiju stvoreni su da izazovu paniku na tržištima.

Falsifikovani dokazi o smrti: Fotografija tijela ajatolaha Alija Khameneija pod ruševinama postala je viralna prije nego što je bilo kakva zvanična potvrda o njegovom stanju uopšte postojala.

Lažne sigurnosne kamere: Snimci eksplozija na aerodromu u Dubaiju koji sadrže suptilne tehničke anomalije vidljive samo stručnjacima.

Evropska mreža standarda za provjeru činjenica (EFCSN) upozorava na „veliki retrogradni korak“ u politikama tehnoloških kompanija. Finansiranje profesionalnih verifikatora je smanjeno, a obaveze nametnute od strane EU često se zanemaruju. Facebook je, naprimjer, zamijenio profesionalne fact-checkere sistemom „bilješki zajednice“, oslanjajući se na konsenzus korisnika. U ratnim okolnostima, takav sistem je neefikasan jer omogućava da organizovane grupe glasanjem potvrde laž kao istinu.

Platforma X je najavila da će suspendovati isplate korisnicima koji šire sintetičke video zapise bez oznake na period od 90 dana. Ipak, u svijetu gdje verifikovani nalozi (plave kvačice) zarađuju na osnovu broja pregleda, motivacija za širenje senzacionalističkih laži ostaje jača od straha od sankcija.

Iako AI sve rjeđe generiše ruke sa sedam prstiju ili neprirodno savijene udove, greške i dalje postoje. Na snimcima bombardovanja aerodroma u Dubaiju, putnici prolaze kroz fizičke barijere bez kontakta, dok se u pozadinama lažnih vojnih kancelarija vide geografski netačne mape Zaljeva. Ove greške su sitne, ali su ključni dokaz da se vizualnom istorijom trenutnog sukoba manipuliše s predumišljajem.

Tekst je pripremljen u saradnji sa platformom Verificat, katalonskom neprofitnom organizacijom za fact-checking i edukaciju, članicom IFCN i EFCSN, objavljen je u listu La Vanguardia