Veštačka inteligencija i novinarstvo: Izvor (dez)informacija

U eri ubrzanog razvoja veštačke inteligencije (VI), novinari širom sveta sve češće postavljaju isto pitanje: da li tehnologija koju koristimo da bismo saznali više – može istovremeno da nas obmanjuje?
Veštačka inteligencija i novinarstvo: Izvor (dez)informacija
Foto: 021.rs
Zabrinutost nije neosnovana, piše NUNS
 
Veštačka inteligencija, naročito veliki jezički modeli (Large Language Models – LLM), sposobna je da generiše tekst koji deluje uverljivo, ali može biti utemeljen na netačnim, pristrasnim ili čak potpuno izmišljenim informacijama. Poseban problem je zloupotreba LLM i namerno širenje dezinformacija.
 
Veliki jezički modeli, poput onih koji pokreću alate kao što su ChatGPT, funkcionišu na osnovu ogromnih baza tekstualnih podataka koje preuzimaju sa interneta – uključujući naučne radove, članke, društvene mreže, blogove, forume, pa čak i komentare korisnika. Problem nastaje kada su ti podaci kontaminirani dezinformacijama. Tada, modeli koji su trenirani na ovim podacima, reprodukuju iste greške, predrasude i manipulativne narative – često sa zapanjujućom sigurnošću i uverljivošću.
Osim toga, ljudi često ne mogu da razlikuju VI-generisane lažne informacije od pravih vesti, posebno kada je reč o temama u kojima nemaju predznanje. To dodatno komplikuje zadatak novinara i medijskih profesionalaca, koji moraju da prepoznaju, razobliče i objasne kako funkcioniše mehanizam digitalne obmane.
 
Koliko su jezički modeli otporni na dezinformacije?
 
NewsGuard je u junu prošle godine objavio izveštaj u kojem je navedeno da vodeći VI četbotovi – uključujući ChatGPT, Copilot, Gemini i drugi – u 32 odsto slučajeva reprodukuju ruske dezinformacije. Studija je testirala 10 popularnih VI modela kroz 570 upita baziranih na 19 poznatih ruskih propagandnih narativa, uključujući tvrdnje o korupciji predsednika Ukrajine Volodimira Zelenskog.
NewsGuard je istakao da su četbotovi često koristili sumnjive izvore (npr. FlagstaffPost.com, Boston Times), a ponekad su čak i označavali propagandne sajtove kao pouzdane. Neki modeli su odgovarali generičkim izjavama umesto da jasno opovrgnu dezinformaciju, prenosi NUNS.
 
Iako su u pojedinim slučajevima VI alati tačno demantovali lažne tvrdnje (npr. o luksuznim jahtama Zelenskog), istraživanje je ukazalo na nedovoljnu sposobnost modela da prepoznaju i kritički obrade štetne narative.
 
U poslednjem izveštaju, za april 2025. navode da je jedanaest vodećih četbotova u proseku ponavljalo lažne tvrdnje u 28,18% slučajeva, što pokazuje da se situacija nije značajnije popravila.
Da veštačka inteligencija nije otporna na dezinformacije potvrđuje i sagovornica NUNS-a Milijana Rogač, izvršna urednica Istinomera. Ona smatra da su, od pojave VI, mogućnosti za manipulisanje mnogo veće u odnosu na ranije.
 
"Za propagandne akcije i bilo kakve operacije dezinformacija VI je vrlo koristan alat, kao i za širenje i umnožavanje i za preplavljivanje platformi. Tako da, pitanje otpornosti je zapravo pitanje politike velikih kompanija, koje će možda u Evropi, da urade nešto, ali je pitanje kako će da reaguju globalno", navodi Rogač.
 
Ako veliki jezički modeli nisu otporni na dezinformacije, kako onda da znamo da li nam je model dao, pre svega, tačnu informaciju na upit?
 
Urednica Istinomera savetuje korisnike četbotova da uvek traže izvor informacija.
 
"ChatGPT, ako vam daje neke odgovore, uvek ga treba pitati za izvore. Ne treba nekritički prihvatati, zdravo za gotovo, odgovor koji dobijate u takvom jednom četu. Pretpostavljam da se verzije razlikuju u zavisnosti od toga da li se plaća ili ne, to nisam analizirala, ali potrebno je uvek tražiti izvor. To je uvek preporuka. Neopohodno je da vidite odakle je poruka potekla", navodi ona za NUNS.
 
VI kao pomoć fektčekerima
 
Veštačka inteligencija može i da pomogne u razotkrivanju manipulacija i dezinformacija. Pojavom platformi za fektčeking donekle je olakšana borba protiv dezinformacija, ali te analize ipak treba posmatrati sa rezervom.
 
"Probala sam više platformi za fektčeking, odnosno više tih soba sa alatkama i mogu da pomognu i koriste u radu, ali ne treba da budu jedini izvor za proveru i za dokazivanje. Treba ih uzeti u obzir i njihove rezultate, ali uvek naravno više njih, dakle, ne samo jednu", savetuje Rogač.
 
I profesionalni fektčekeri, koji se svakodnevno susreću sa dezinformacijama koje su nastale kao produkt ljudske ili veštačke inteligencije, oslanjaju se na VI alate.
 
Sagovornica NUNS-a navodi da oni u svom radu kombinuju više alata jer nijedan nije sto posto pouzdan.
 
"Ono na šta se najviše oslanjamo u radu su belingketova baza preporučenih alatki, koje oni koriste u svom radu. I koristimo još jednu ekstenziju, inVID, koja je zapravo soba sa alatkama za različitu vrstu provera fotografija, videa i postova na mrežama. Ali mislim da je važno napomenuti da prilikom bilo kakve provere osim onog osnovnog novinarskog rada, da pratimo kako je došlo, šta je objavljeno i kako i zašto, ako koristimo alatke uvek treba da razmišljamo o kontekstu. Dakle alatke same nisu dovoljne koliko god da su važne danas", objašnjava Rogač.
 
Ali ipak neće zameniti ljudske fektečekere
 
VI alati mogu brzo analizirati velike količine podataka, prepoznati obrasce dezinformacija, bot mreže i sumnjive obrasce deljenja sadržaja, a može i označiti potencijalno netačne tvrdnje za dalju analizu.
 
Sagovornica NUNS-a kaže da VI ipak ne može zameniti ljude u fektčekingu, ali i da novinari ne treba da beže od ovih alatki, već da treba da nauče da ih koriste kao pomoć u radu.
 
"Ja verujem da ozbiljno, kvalitetno novinarstvo ne može (zameniti VI) i da će u budućnosti mnogo vrednija biti novinarska priča koju su radili ljudi, a ne neki tamo algoritmi. Ali da li će to neke redakcije koristii, verovatno hoće, ne znam. Još uvek je to prilično nepoznato polje i ljudi se ustručavaju za bilo kakvo ozbiljnije korišćenje u redakciji, makar mi to pokazuje iskustvo i razgovor sa kolegama", navodi Rogač.
 
Community notes kao odgovor na dezinformacije
 
Kompanija Meta (Fejsbuk, Instagram, Treds) ukinula je ove godine fektčekerski program za borbu protiv dezinformacija i najavila je da će, po ugledu na X Ilona Maska, uvesti "Community notes", koje funkcionišu tako što registrovani korisnici ostavljaju beleške uz objave na mrežama, a one će se prikazivati samo ako ih dovoljan broj različitih korisnika oceni kao korisne.
 
Ova odluka naišla je na različite reakcije. Neki su je podržali, posebno oni koji su fektčekere optuživali za cenzuru, dok su drugi izrazili zabrinutost jer su fektčekeri utvrđivali istinitost objava na društvenim mrežama na osnovu činjenica, a od sada će se istinitost utvrđivati na osnovu slaganja ili neslaganja većine u jednoj zajednici.
 
"Comunity notes jeste jedan od odgovra velikih kompanija na manipulacije na njihovim platofrmama. Koliko su efikasne, nisam sigurna, jer i dalje verujem u fektčeking. I dalje verujem u konkretan tekst, analizu, dodavanje konteksta i činjenica razgovoru na platformi. Dakle, comunity notes često se temelje na saglasnosti korisnika da li će nešto biti objavljeno ili ne", navodi izvršna urednica Istinomera.
 
Ona dodaje da su ove beleške verodostojnije ukoliko sadrže tekst fektčekera.
 
"Analiza kolage iz Španije, redakcije Maldita pokazuje da su te beleške uspešne i vidljive naročito onda kada sadrže fektčeking tekst. Dakle, uvek kada postoji neki izvor, ljudi bolje reaguju, ali to je opet neki novinarski rad koji stoji iza toga. Ovako, samo komentar kao komentar, pa onda se grupa ljudi usaglasi da je taj komentar ok, pa onda bude objavljen, zaista ne znam koliku informativnu vrednost ima za bilo koga."
 
Iako veštačka inteligencija može biti moćan saveznik u borbi protiv dezinformacija, ona nije nepogrešiva ni nezavisna. Veliki jezički modeli funkcionišu na osnovu podataka koji mogu biti kontaminirani, a njihovi odgovori deluju uverljivo čak i kada su netačni. Zato je ljudski faktor nezamenjiv. Uloga novinara, fektčekera i medijskih profesionalaca ostaje ključna – ne samo u proveri činjenica, već i u razumevanju konteksta, izvora i posledica informacija koje se šire.
OBRATI PAŽNJU! Osvežili smo platformu sa muzičkim kanalima, a preko koje možete slušati i Radio 021. Preporučujemo vam novu kategoriju - LOUNGE, za baš dobar užitak i relax tokom dana. Vaš 021!

Komentari 0

    Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.

Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.

Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.

Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.

Pisanje komentara je ograničeno na 1.500 karaktera.

Napiši komentar


Preostalo 1500 karaktera

* Ova polja su obavezna

Ostalo iz kategorije Info - Nauka i tehnologija