
Veštačka inteligencija i novinarstvo: Izvor (dez)informacija
U eri ubrzanog razvoja veštačke inteligencije (VI), novinari širom sveta sve češće postavljaju isto pitanje: da li tehnologija koju koristimo da bismo saznali više – može istovremeno da nas obmanjuje?

Foto: 021.rs
Zabrinutost nije neosnovana, piše NUNS.
Veštačka inteligencija, naročito veliki jezički modeli (Large Language Models – LLM), sposobna je da generiše tekst koji deluje uverljivo, ali može biti utemeljen na netačnim, pristrasnim ili čak potpuno izmišljenim informacijama. Poseban problem je zloupotreba LLM i namerno širenje dezinformacija.
Veliki jezički modeli, poput onih koji pokreću alate kao što su ChatGPT, funkcionišu na osnovu ogromnih baza tekstualnih podataka koje preuzimaju sa interneta – uključujući naučne radove, članke, društvene mreže, blogove, forume, pa čak i komentare korisnika. Problem nastaje kada su ti podaci kontaminirani dezinformacijama. Tada, modeli koji su trenirani na ovim podacima, reprodukuju iste greške, predrasude i manipulativne narative – često sa zapanjujućom sigurnošću i uverljivošću.
Osim toga, ljudi često ne mogu da razlikuju VI-generisane lažne informacije od pravih vesti, posebno kada je reč o temama u kojima nemaju predznanje. To dodatno komplikuje zadatak novinara i medijskih profesionalaca, koji moraju da prepoznaju, razobliče i objasne kako funkcioniše mehanizam digitalne obmane.
Koliko su jezički modeli otporni na dezinformacije?
NewsGuard je u junu prošle godine objavio izveštaj u kojem je navedeno da vodeći VI četbotovi – uključujući ChatGPT, Copilot, Gemini i drugi – u 32 odsto slučajeva reprodukuju ruske dezinformacije. Studija je testirala 10 popularnih VI modela kroz 570 upita baziranih na 19 poznatih ruskih propagandnih narativa, uključujući tvrdnje o korupciji predsednika Ukrajine Volodimira Zelenskog.
NewsGuard je istakao da su četbotovi često koristili sumnjive izvore (npr. FlagstaffPost.com, Boston Times), a ponekad su čak i označavali propagandne sajtove kao pouzdane. Neki modeli su odgovarali generičkim izjavama umesto da jasno opovrgnu dezinformaciju, prenosi NUNS.
Iako su u pojedinim slučajevima VI alati tačno demantovali lažne tvrdnje (npr. o luksuznim jahtama Zelenskog), istraživanje je ukazalo na nedovoljnu sposobnost modela da prepoznaju i kritički obrade štetne narative.
U poslednjem izveštaju, za april 2025. navode da je jedanaest vodećih četbotova u proseku ponavljalo lažne tvrdnje u 28,18% slučajeva, što pokazuje da se situacija nije značajnije popravila.
Da veštačka inteligencija nije otporna na dezinformacije potvrđuje i sagovornica NUNS-a Milijana Rogač, izvršna urednica Istinomera. Ona smatra da su, od pojave VI, mogućnosti za manipulisanje mnogo veće u odnosu na ranije.
"Za propagandne akcije i bilo kakve operacije dezinformacija VI je vrlo koristan alat, kao i za širenje i umnožavanje i za preplavljivanje platformi. Tako da, pitanje otpornosti je zapravo pitanje politike velikih kompanija, koje će možda u Evropi, da urade nešto, ali je pitanje kako će da reaguju globalno", navodi Rogač.
Ako veliki jezički modeli nisu otporni na dezinformacije, kako onda da znamo da li nam je model dao, pre svega, tačnu informaciju na upit?
Urednica Istinomera savetuje korisnike četbotova da uvek traže izvor informacija.
"ChatGPT, ako vam daje neke odgovore, uvek ga treba pitati za izvore. Ne treba nekritički prihvatati, zdravo za gotovo, odgovor koji dobijate u takvom jednom četu. Pretpostavljam da se verzije razlikuju u zavisnosti od toga da li se plaća ili ne, to nisam analizirala, ali potrebno je uvek tražiti izvor. To je uvek preporuka. Neopohodno je da vidite odakle je poruka potekla", navodi ona za NUNS.
VI kao pomoć fektčekerima
Veštačka inteligencija može i da pomogne u razotkrivanju manipulacija i dezinformacija. Pojavom platformi za fektčeking donekle je olakšana borba protiv dezinformacija, ali te analize ipak treba posmatrati sa rezervom.
"Probala sam više platformi za fektčeking, odnosno više tih soba sa alatkama i mogu da pomognu i koriste u radu, ali ne treba da budu jedini izvor za proveru i za dokazivanje. Treba ih uzeti u obzir i njihove rezultate, ali uvek naravno više njih, dakle, ne samo jednu", savetuje Rogač.
I profesionalni fektčekeri, koji se svakodnevno susreću sa dezinformacijama koje su nastale kao produkt ljudske ili veštačke inteligencije, oslanjaju se na VI alate.
Sagovornica NUNS-a navodi da oni u svom radu kombinuju više alata jer nijedan nije sto posto pouzdan.
"Ono na šta se najviše oslanjamo u radu su belingketova baza preporučenih alatki, koje oni koriste u svom radu. I koristimo još jednu ekstenziju, inVID, koja je zapravo soba sa alatkama za različitu vrstu provera fotografija, videa i postova na mrežama. Ali mislim da je važno napomenuti da prilikom bilo kakve provere osim onog osnovnog novinarskog rada, da pratimo kako je došlo, šta je objavljeno i kako i zašto, ako koristimo alatke uvek treba da razmišljamo o kontekstu. Dakle alatke same nisu dovoljne koliko god da su važne danas", objašnjava Rogač.
Ali ipak neće zameniti ljudske fektečekere
VI alati mogu brzo analizirati velike količine podataka, prepoznati obrasce dezinformacija, bot mreže i sumnjive obrasce deljenja sadržaja, a može i označiti potencijalno netačne tvrdnje za dalju analizu.
Sagovornica NUNS-a kaže da VI ipak ne može zameniti ljude u fektčekingu, ali i da novinari ne treba da beže od ovih alatki, već da treba da nauče da ih koriste kao pomoć u radu.
"Ja verujem da ozbiljno, kvalitetno novinarstvo ne može (zameniti VI) i da će u budućnosti mnogo vrednija biti novinarska priča koju su radili ljudi, a ne neki tamo algoritmi. Ali da li će to neke redakcije koristii, verovatno hoće, ne znam. Još uvek je to prilično nepoznato polje i ljudi se ustručavaju za bilo kakvo ozbiljnije korišćenje u redakciji, makar mi to pokazuje iskustvo i razgovor sa kolegama", navodi Rogač.
Community notes kao odgovor na dezinformacije
Kompanija Meta (Fejsbuk, Instagram, Treds) ukinula je ove godine fektčekerski program za borbu protiv dezinformacija i najavila je da će, po ugledu na X Ilona Maska, uvesti "Community notes", koje funkcionišu tako što registrovani korisnici ostavljaju beleške uz objave na mrežama, a one će se prikazivati samo ako ih dovoljan broj različitih korisnika oceni kao korisne.
Ova odluka naišla je na različite reakcije. Neki su je podržali, posebno oni koji su fektčekere optuživali za cenzuru, dok su drugi izrazili zabrinutost jer su fektčekeri utvrđivali istinitost objava na društvenim mrežama na osnovu činjenica, a od sada će se istinitost utvrđivati na osnovu slaganja ili neslaganja većine u jednoj zajednici.
"Comunity notes jeste jedan od odgovra velikih kompanija na manipulacije na njihovim platofrmama. Koliko su efikasne, nisam sigurna, jer i dalje verujem u fektčeking. I dalje verujem u konkretan tekst, analizu, dodavanje konteksta i činjenica razgovoru na platformi. Dakle, comunity notes često se temelje na saglasnosti korisnika da li će nešto biti objavljeno ili ne", navodi izvršna urednica Istinomera.
Ona dodaje da su ove beleške verodostojnije ukoliko sadrže tekst fektčekera.
"Analiza kolage iz Španije, redakcije Maldita pokazuje da su te beleške uspešne i vidljive naročito onda kada sadrže fektčeking tekst. Dakle, uvek kada postoji neki izvor, ljudi bolje reaguju, ali to je opet neki novinarski rad koji stoji iza toga. Ovako, samo komentar kao komentar, pa onda se grupa ljudi usaglasi da je taj komentar ok, pa onda bude objavljen, zaista ne znam koliku informativnu vrednost ima za bilo koga."
Iako veštačka inteligencija može biti moćan saveznik u borbi protiv dezinformacija, ona nije nepogrešiva ni nezavisna. Veliki jezički modeli funkcionišu na osnovu podataka koji mogu biti kontaminirani, a njihovi odgovori deluju uverljivo čak i kada su netačni. Zato je ljudski faktor nezamenjiv. Uloga novinara, fektčekera i medijskih profesionalaca ostaje ključna – ne samo u proveri činjenica, već i u razumevanju konteksta, izvora i posledica informacija koje se šire.
Ukoliko imate potrebu za radnom snagom nudimo vam mogućnost da na jednostavan način oglasite poziciju za posao.
Radno mesto možete oglasiti u odeljku Oglasi za posao ili jednostavno klikom na ovu poruku.
NAJČITANIJE U POSLEDNJIH 72H
Ostalo iz kategorije Info - Nauka i tehnologija
Vlasti Holandije upozorile građane: Ne tražite savete o glasanju na izborima od veštačke inteligencije
21.10.2025.•
0
Holandska agencija za zaštitu podataka upozorila je građane da ne traže savete o glasanju od četbotova sa veštačkom inteligencijom uoči opštih izbora, koji će se održati naredne srede.
Pad posete Vikipediji, razlozi - veštačka inteligencija i društvene mreže
21.10.2025.•
0
Broj poseta globalnoj onlajn enciklopediji Vikipedija pao je osam odsto međugodišnje, pokazuje blog višeg direktora za proizvode i osnovna iskustva Fondacije Vikimedija Maršala Milera.
Ne rade Snapchat, Fortnite i mnogi drugi servisi i aplikacije zbog kvara u Amazonovom centru
20.10.2025.•
1
Veliki broj korisnika Snapchat-a širom sveta ne mogu trenutno da pristupe aplikaciji, šalju poruke niti se povezuju na njene servere, javlja Huffington Post.
VIDEO Pas robot patrolira kineskim gradom: Treba da otkrije nezakonito parkiranje i blokade puteva
19.10.2025.•
0
Robotski pas započeo je terenske patrole u kineskom gradu Hangdžou, u sklopu pilot-projekta unapređenja gradskog upravljanja putem naprednih tehnologija saopštile su lokalne vlasti.
Amerika i Kina u trci: Ko će prvi vratiti astronaute na Mesec
19.10.2025.•
1
Pozivi da SAD do kraja decenije ponovo pošalju astronaute na Mesec postaju sve glasniji, dolazeći kako od republikanaca i demokrata, tako i od naučne zajednice.
VIDEO: Predstavljen kineski leteći automobil - evo koliko će koštati
19.10.2025.•
4
Kineska kompanija Aridge predstavila je u Dubaiju svoj leteći automobil, modularni LAC (Land Aircraft Carrier), koji ima mogućnost vertikalnog poletanja i sletanja, slično helikopteru.
Naučnici prvi put posmatrali proces formiranja Saturnovih prstenastih sistema
19.10.2025.•
0
Naučnici brazilske opservatorije Piko dos dijas su prvi put uspeli da posmatraju proces formiranja prstenastih sistema Saturna, koji okružuju tu planetu i koji imaju prečnik od oko 280.000 kilometara.
VIDEO: Pomoć turistima koji se teško penju na planine - robotske noge
19.10.2025.•
0
Egzoskelet osmišljen da pomogne ljudima pri hodanju i rastereti noge maksimalno čak i pri savladavanju velikih uspona uskoro će se naći na kineskom tržištu.
Ruski kosmonauti predstavili plan za stratosferski skok preko Južnog pola
19.10.2025.•
0
Ruski kosmonauti Mihail Kornijenko i Aleksandar Linik predstavili su plan za prvi stratosferski skok padobranom preko Južnog pola zakazan za novembar 2025. godine.
VIDEO: Kometa koja će biti najbliža Zemlji 21. oktobra prvo zatamnela, ali je sada vidljiva golim okom
19.10.2025.•
0
Kometa C/2025 A6 Lemon neočekivano je zatamnela uoči približavanja Zemlji 21. oktobra, ali je zatim ponovo postala sjajna i sada je vidljiva čak i bez dvogleda.
Meta gasi aplikaciju Messenger za desktop
19.10.2025.•
0
Kompanija Meta najavila je da će od 15. decembra 2025. godine ugasiti Messenger aplikaciju za Windows i macOS operativne sisteme.
Počela treća magnetna oluja u ovom mesecu: Naučnici očekuju zatišje
18.10.2025.•
0
Laboratorija za solarnu astronomiju Instituta za istraživanje svemira (IKI) Ruske akademije nauka saopštila je da je danas počela treća magnetna oluja u ovom mesecu.
AI automatizacija u srpskim kompanijama: ROI analiza u ecommerce sektoru
17.10.2025.•
0
Sve veći pritisak na efikasnost i korisničko iskustvo tera ecommerce kompanije da razmotre veštačku inteligenciju kao rešenje za korisničku podršku.
Nova verzija ChatGPT-ja češće daje štetne odgovore na osetljive teme
15.10.2025.•
2
Najnovija verzija ChatGPT-a - GPT-5, češće je davala štetne odgovore na određena pitanja nego njen prethodnik GPT-4o, naročito kada je reč o temama poput samoubistva, samopovređivanja i poremećaja u ishrani.
Korisnici će uskoro moći da vode erotske razgovore sa ChatGPT-jem
15.10.2025.•
0
Izvršni direktor kompanije Open AI Sem Altman izjavio je da će ChatGPT uskoro dobiti znatno opušteniju varijantu, sa više prostora za personalizaciju i emotivniji ton komunikacije.
Instagram uvodi stroža pravila za tinejdžere
15.10.2025.•
1
Instagram više neće prikazivati sadržaj tinejdžerima koji se smatra neprimerenim za uzrast ispod 13 godina, po uzoru na PG-13 filmsku ocenu.
OpenAI testirao kako veštačka inteligencija obavlja 44 stvarna zanimanja
14.10.2025.•
0
Kompanija OpenAI sprovela je veliku analizu pod nazivom GDPval u kojoj je ocenjivala koliko dobro veštačka inteligencija rešava realne poslovne zadatke u okviru 44 zanimanja.
VIDEO: SpaceX uspešno lansirao raketu Starship
14.10.2025.•
0
Kompanija SpaceX lansirala je 11. probni let svoje rakete Super Heavy-Starship.
Parisko tužilaštvo otvorilo istragu o Eplovoj virtuelnoj asistentkinji Siri
12.10.2025.•
0
Francusko tužilaštvo pokrenulo je istragu protiv kompanije Epl zbog prikupljanja hiljada korisničkih snimaka preko glasovne asistentkinje Siri, saopštili su iz tužilaštva za briselski Politiko.
VIDEO: Maskovi Starlink sateliti padaju na Zemlju "rekordnim tempom"
12.10.2025.•
0
Do četiri satelita iz masivne Starlink konstelacije padaju na Zemlju svaki dan, pokazali su novi podaci.
VIDEO: Planeta luta galaksijom i raste brzinom od šest milijardi tona u sekundi
12.10.2025.•
1
Astronomi su zapanjeni neverovatnim otkrićem u dubinama svemira - planeta koja luta galaksijom bez svoje matične zvezde, a ipak "raste" upijajući gas i prašinu.
Komentari 0
Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.
Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.
Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.
Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.
Pisanje komentara je ograničeno na 1.500 karaktera.
Napiši komentar