Mask koji "baš voli Srbiju" i rakiju: Kako da prepoznate dipfejk snimke i da ne nasednete

Portal Fejknjuz Tragač prošle nedelje je zabeležio slučaj najviralnijeg od ovih videa - Ilona Maska koji govori koliko voli Srbiju.
Mask koji "baš voli Srbiju" i rakiju: Kako da prepoznate dipfejk snimke i da ne nasednete
Foto: Beta/AP
"Da li bih ikada posetio Srbiju? (...) Volim Srbiju i Srbe. I nadam se da mogu da vrate Kosovo, zato što je njihovo i oduvek je bilo. Posetiću ih kroz nekoliko nedelja", sadržaj je videa, koji prenosi Raskrikavanje.
 
Ovaj snimak, originalno sa TikToka, pojavio se i na Jutjubu prošle nedelje gde je sakupio stotine hiljada pregleda. Ljudi uglavnom nisu naseli, ali ima i onih koji jesu, sudeći po komentarima.
"Rakija menja život, čoveče. Tri dana u Modriči i već sam alkoholičar. Loza, šljiva, kajsija, nije bitno. Takođe sam zamenio Teslu za Golfa dvojku. U taj auto može stati pet kubika drva, sedam ljudi i raketa za Mars. Ludilo", izgovara milijarder Ilon Mask u jednom viralnom videu.
 
U drugom priznaje da je iz Republike Srpske, a u trećem da voli Srbe i da se nada da će vratiti Kosovo. Snimci poput ovih poslednjih dana se mogu naći na TikToku, Jutjubu, Tviteru, a reč je o tzv. dipfejk tehnologiji - oni nisu stvarni, već ih je generisala veštačka inteligencija. Kako je prepoznati?
U opisu pomenutog TikTok naloga stoji da su svi videi delo veštačke inteligencije (artificial intelligence - AI), a dat je i link ka Try Parrot AI, aplikaciji uz pomoć koje svako može napraviti svoj dipfejk - ili, prevedeno na srpski jezik, "duboko lažni video".
 
 
Ova aplikacija nudi brojne poznate ličnosti i influensere koje možete da iskoristite - klikom na bilo koga od njih, dobijete prozor u koji treba da ukucate željeni tekst, i veštačka inteligencija će vam generisati video u kome osoba izgovara to što ste zadali.
 
Dobra vest je da je iz ovih videa uglavnom jasno da je reč o šali: teško da će iko poverovati da se Mask opija u Modriči. Međutim, ova tehnologija može biti zloupotrebljena za mnogo ozbiljnije stvari koje mogu da izazovu stvarne posledice.
 
Tako je na primer Rojters u maju pisao kako se u Sjedinjenim Američkim Državama dipfejk snimci i sadržaj koji generiše veštačka inteligencija već koriste kao oružje u kampanji za izbore 2024. godine, odnosno kao sredstvo za obračun sa političkim protivnicima i pridobijanje glasača. Pritisak na kompanije poput Gugla, Mete i X (bivši Tviter), sve je veći - deo javnosti traži da se pojača regulacija ovakvih sadržaja jer imaju ogromni potencijal da utiču na ishod izbora.
 
I ne samo u Americi - slični slučajevi zloupotreba zabeleženi su i prilikom izbora u Indiji, ali i u Slovačkoj. Tamo je, uoči nedavnih izbora, objavljen dipfejk audio snimak u kome opozicioni kandidat i novinarka navodno dogovaraju krađu glasova.
 
Osim u političkim procesima, dipfejk materijal može biti zloupotrebljen i na druge načine.
 
Recimo, Fejknjuz tragač je pisao o fenomenu dipfejk pornografije: bez mnogo tehničkog znanja i veština, manje više svako može da napravi lažni porno snimak bilo koje osobe na svetu, samo ukoliko ima neke njene fotografije i snimke. Sajtovi na kojima se objavljuju ovakvi sadržaji uglavnom jasno navode da je reč o dipfejku, da je cilj zabava i da se koriste isključivo poznate ličnosti, na primer holivudske glumice (uglavnom su "meta" žene, ali ima i muškaraca). Ipak, usled nedostatka bilo kakve regulative u ovoj oblasti, nije neočekivano da se na internetu nađu i veštački generisani porno snimci "običnih" ljudi (na primer, u slučajevima osvetničke pornografije).
 
Kako se pravi dipfejk snimak?
 
Dipfejk snimak nije isto što i video-montaža - reč je o tehnologiji novije generacije koja počiva na tzv. mašinskom učenju. U tom procesu kreator dipfejk snimka "filuje" veštačku inteligenciju (aplikaciju, program, softver) informacijama. Ishod treba da bude realističan snimak osobe koja izgovara ili radi ono što nikada nije izgovorila i uradila.
 
Zamislite da želite da napravite video u kome ruski predsednik Vladimir Putin pravi tortu i peva "Makarenu".
 
Možete to da uradite, recimo, tako što ćete naći snimak osobe koja pravi tortu i koji će biti "baza" vašeg dipfejk videa (osoba po konstituciji tela treba da podseća na Putina). Da bi lice ruskog predsednika u tom lažnom snimku izgledalo što uverljivije, u softver ćete morati da ubacite što više njegovih fotografija i snimaka iz različitih prilika, uglova i različitih facijalnih ekspresija. Što veći korpus informacija softver ima na raspolaganju, bolje će "naučiti" kako izgleda Putinovo lice u 3D realnosti, kakva mu je mimika, kako mu se pomeraju usta, kako trepće, kako izgleda kada se smeje, kako kada je ozbiljan i slično. Samim tim će i video na kraju biti realističniji.
 
Recimo, jedan od najuverljivijih dipfejk kanala na koje smo dosad naišli je TikTok nalog DeepTomCruise koji zasad ima više od pet miliona pratilaca.
 
Da u opisu samog naloga ne piše da je reč o parodiji, jedino po čemu bi eventualno bilo moguće posumnjati da ovo nije Tom Kruz, jeste sadržaj kanala. Kao što se može videti, lažni Kruz radi neke neobične ili neočekivane stvari - radi trbušnjake tokom intervjua, doručkuje žitarice sa Paris Hilton i pleše viralne TikTok plesove.
 
Čovek koji "glumi" Toma Kruza, i koji se zapravo nalazi u svim ovim situacijama kao „baza“ videa jeste glumac Majls Fišer. On i fizički podseća na Kruza i ima slično telo i frizuru - još jedan od razloga što su videi ovako realistični.
 
 
Kako da ne nasednemo?
 
Srećom, kvalitet većine dipfejk snimaka koji su trenutno u opticaju nije na ovom nivou - još uvek. Uglavnom je, uz malo opreza i pažnje, i dalje moguće odmah posumnjati (ako ne i biti siguran) da se radi o manipulaciji.
 
Evo nekoliko smernica koje prenosi Raskrikavanje:
 
1. Kao i u priči o lažnim vestima na internetu i u medijima, i ovde je važno imati na umu da dipfejk postoji i da je sve napredniji: ako dosad niste smeli da verujete svemu što pročitate, sada više ne možete da verujete ni svemu što vidite. Prvi korak je uvek - biti oprezan i ostaviti prostora za sumnju.
 
2. S naročitom pažnjom gledajte usta osobe koja govori - ona su na dipfejk snimku često "zamagljenija" u odnosu na ostatak lica, a često će pažljiviji pogled otkriti i da se pokreti usana ni ne poklapaju skroz precizno sa onim što osoba zgovara. Ako treba, odgledajte snimak pažljivo više puta - često ćete videti da se usta jedva uopšte i pomeraju.
 
3. Motrite i na ostatak lica: na primer da li osoba trepće? Da li je njena pojava "čudna", da li deluje ukočeno ili neprirodno? Na primer, možda je gestikulacija usporenija nego što bi bilo realno pa se generalno stiče utisak da je osoba na snimku poput robota.
 
4. Rezolucija - generalno je najveći broj ovakvih snimaka i dalje na niskom nivou produkcije tako da će se često raditi o lošijoj rezoluciji - obratite pažnju da li su neki delovi snimka pikselizovani i zamagljeni, odnosno da li su ivice (lica, kosa) "zamrljane". Realistični snimci će često biti oštriji, a linije jasnije vidljive.
 
5. Pažljivo slušajte i zvuk - ponekad i on može zvučati distorzirano i "robotizovano", sa jednoličnom i neubedljivom intonacijom.
 
6. Senke i osvetljenje - posebno u dipfejk snimcima lošije produkcije lice će biti drugačije osvetljeno od ostatka tela. Možda će delovati da je telo više u senci od lica koje je možda pod suncem ili reflektorom, svetlije je i sjajnije. To je zato što se dešava da kreatori dipfejka "napune" softver snimcima i fotografijama lica nastalim na, na primer, dnevnom svetlu, pa ga onda "nalepe" na telo snimano u zatvorenom prostoru.
7. Pazite na kontekst, ponašanje i reči osobe na snimku - pitajte se koliko je verovatno da bi ova osoba zaista ovo rekla (na primer, Zelenski na snimku iznad koji poziva ukrajinsku vojsku da se preda). Koliko je verovatno da će multimilijarder Ilon Mask govoriti o tome da se nada da će Srbi vratiti Kosovo? Koliko je verovatno da će Vladimir Putin pozvati ljude da na Svetskom prvenstvu u fudbalu navijaju za Srbiju? Koliko je verovatno da će nekadašnji predsednik SAD Barak Obama reći da je Tramp "complete dipshit"?
 
Kao i kod lažnih vesti, i ovde naročito treba biti oprezan kada se radi o kontroverznim i zapaljivim temama (npr. izbori, ili Kosovo) budući da takvi sadržaji najviše angažuju emocije pa je lakše okliznuti se i poverovati u određeni sadržaj.
 
Uvek možete da proguglate po ključnim rečima da li je neko od kredibilnih medija već preneo tu izjavu, ili da li taj video već negde postoji na internetu (recimo, obrnutom pretragom kadrova iz snimaka). Na primer, u slučaju dipfejk videa Ilona Maska, novinari Fejknjuz tragača su utvrdili da je originalno nastao tokom njegovog intervjua za TED 2022. godine i da se može naći na Jutjubu. Ako ga poslušate, videćete da nigde nije spomenuo ni Srbe ni Golfa dvojku.
 
Koliko ste dobri u prepoznavanju lažnih vesti i dipfejka, testirajte na sajtu Instituta za tehnologiju iz Masačusetsa OVDE.
  • zztop

    06.12.2023 20:11
    Aco je pogodanza deepfake snimke, on na svakoj televiziji kaže isto ...
  • Maki

    06.12.2023 13:35
    Dipfejk
    A šta ti je to?
  • sale

    06.12.2023 12:28
    razuma bez
    Ako ga masovno dele putinovci, dogodinasi, antivakseri, osvesceni, probudjeni, obavesteni, studenti youtube univerziteta sa zutim titlovima, nestorovicevci, djokovicevci, branitelji kosova, postovaoci mise brkica i tabloida, radulovi svedoci, srbin info i slicna ekipa, onda je 1000% provereno tacno!

Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.

Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.

Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.

Pisanje komentara je ograničeno na 1.500 karaktera.

Napiši komentar


Preostalo 1500 karaktera

* Ova polja su obavezna

Ostalo iz kategorije Zabava - Zanimljivosti

Egiptu vraćena ukradena statua Ramzesa II

Statua stara 3.400 godina koja prikazuje glavu Ramzesa II, vraćena je iz Švajcarske u Egipat, nakon što je ukradena i prokrijumčarena iz zemlje pre više od tri decenije.

Mesec će dobiti svoju vremensku zonu

Bela kuća objavila je memorandum u kojem traži od američke svemirske agencije NASA da uspostavi novi standard za lunarne vremenske prilike do 2026. godine.