Ljudi veruju AI-generisanim snimcima čak i kada znaju da su lažni: Naučnici objasnili zašto

Stefan Milosavljević avatar

Video-snimci generisani veštačkom inteligencijom postali su sve prisutniji na internetu, što predstavlja ozbiljan izazov u borbi protiv dezinformacija. Nova studija Univerziteta u Bristolu pokazuje da korisnici često poveruju deepfake sadržaju, čak i kada su jasno upozoreni na njegovu veštačku prirodu. Istraživači su ovo zapažanje označili kao „veoma uznemirujuće“.

U poslednje vreme, internet je preplavljen lažnim sadržajem koji se stvara pomoću generativne veštačke inteligencije. Nedavni primer uključuje skandal vezan za lažne fotografije sa Kamčatke, koje su mnogi ljudi prihvatili kao stvarne. Iako su neki snimci označeni kao deepfake, to nije sprečilo korisnike da veruju u verodostojnost sadržaja.

Tim naučnika sa Univerziteta u Bristolu, predvođen Sajmonom Klarkom, odlučio je da istraži kako ljudi reaguju na označene deepfake video-snimke. U okviru tri serije testova, 175, 275 i 223 učesnika gledali su kratke video-snimke u kojima se prikazuje osoba koja priznaje izvršenje zločina. Neki snimci su bili tradicionalni, dok su drugi bili generisani veštačkom inteligencijom uz jasno označavanje o tome.

Nakon gledanja video-snimaka, učesnici su bili upitani o svojoj percepciji istinitosti snimaka i da li veruju da su prikazane osobe počinile zločin. Rezultati su pokazali da je većina učesnika bila pod uticajem sadržaja, čak i nakon što su bili obavešteni da je snimak lažan. Zanimljivo je da su mnogi učesnici, iako su priznali da je video deepfake, i dalje verovali da je osoba prikazana u videu kriva za zločin.

Sajmon Klark naglašava da upozorenja mogu umanjiti efekat dubokih laži, ali ga ne uklanjaju u potpunosti. Različite vrste upozorenja imaju različite efekte; specifična upozorenja vezana za određeni video su efikasnija u ubeđivanju ljudi da je snimak lažan, dok opšta upozorenja ne daju uvek iste rezultate. Ipak, opšta upozorenja mogu promeniti način na koji ljudi interpretiraju sadržaj, utičući na to kako ga koriste.

Istraživači iz Bristola planiraju da nastave sa istraživanjem uticaja AI sadržaja na percepciju korisnika interneta. Oni žele da ispitaju da li izvor ili način na koji se upozorenja predstavljaju utiče na njihovu efikasnost. Klark ističe važnost razumevanja šta pokreće poverenje korisnika u video-snimke, čak i kada znaju da su lažni.

Ova istraživanja su ključna u svetu u kojem je dezinformacija sve prisutnija, a lažni video-snimci mogu imati ozbiljne posledice po društvo. Potrebno je više istraživanja kako bi se bolje razumelo kako se korisnici odnose prema ovim sadržajima i kako se može efikasnije boriti protiv dezinformacija.

Stefan Milosavljević avatar