Veštačka inteligencija i novinarstvo: Izvor (dez)informacija
U eri ubrzanog razvoja veštačke inteligencije (VI), novinari širom sveta sve češće postavljaju isto pitanje: da li tehnologija koju koristimo da bismo saznali više – može istovremeno da nas obmanjuje?
Foto: 021.rs
Zabrinutost nije neosnovana, piše NUNS.
Veštačka inteligencija, naročito veliki jezički modeli (Large Language Models – LLM), sposobna je da generiše tekst koji deluje uverljivo, ali može biti utemeljen na netačnim, pristrasnim ili čak potpuno izmišljenim informacijama. Poseban problem je zloupotreba LLM i namerno širenje dezinformacija.
Veliki jezički modeli, poput onih koji pokreću alate kao što su ChatGPT, funkcionišu na osnovu ogromnih baza tekstualnih podataka koje preuzimaju sa interneta – uključujući naučne radove, članke, društvene mreže, blogove, forume, pa čak i komentare korisnika. Problem nastaje kada su ti podaci kontaminirani dezinformacijama. Tada, modeli koji su trenirani na ovim podacima, reprodukuju iste greške, predrasude i manipulativne narative – često sa zapanjujućom sigurnošću i uverljivošću.
Osim toga, ljudi često ne mogu da razlikuju VI-generisane lažne informacije od pravih vesti, posebno kada je reč o temama u kojima nemaju predznanje. To dodatno komplikuje zadatak novinara i medijskih profesionalaca, koji moraju da prepoznaju, razobliče i objasne kako funkcioniše mehanizam digitalne obmane.
Koliko su jezički modeli otporni na dezinformacije?
NewsGuard je u junu prošle godine objavio izveštaj u kojem je navedeno da vodeći VI četbotovi – uključujući ChatGPT, Copilot, Gemini i drugi – u 32 odsto slučajeva reprodukuju ruske dezinformacije. Studija je testirala 10 popularnih VI modela kroz 570 upita baziranih na 19 poznatih ruskih propagandnih narativa, uključujući tvrdnje o korupciji predsednika Ukrajine Volodimira Zelenskog.
NewsGuard je istakao da su četbotovi često koristili sumnjive izvore (npr. FlagstaffPost.com, Boston Times), a ponekad su čak i označavali propagandne sajtove kao pouzdane. Neki modeli su odgovarali generičkim izjavama umesto da jasno opovrgnu dezinformaciju, prenosi NUNS.
Iako su u pojedinim slučajevima VI alati tačno demantovali lažne tvrdnje (npr. o luksuznim jahtama Zelenskog), istraživanje je ukazalo na nedovoljnu sposobnost modela da prepoznaju i kritički obrade štetne narative.
U poslednjem izveštaju, za april 2025. navode da je jedanaest vodećih četbotova u proseku ponavljalo lažne tvrdnje u 28,18% slučajeva, što pokazuje da se situacija nije značajnije popravila.
Da veštačka inteligencija nije otporna na dezinformacije potvrđuje i sagovornica NUNS-a Milijana Rogač, izvršna urednica Istinomera. Ona smatra da su, od pojave VI, mogućnosti za manipulisanje mnogo veće u odnosu na ranije.
"Za propagandne akcije i bilo kakve operacije dezinformacija VI je vrlo koristan alat, kao i za širenje i umnožavanje i za preplavljivanje platformi. Tako da, pitanje otpornosti je zapravo pitanje politike velikih kompanija, koje će možda u Evropi, da urade nešto, ali je pitanje kako će da reaguju globalno", navodi Rogač.
Ako veliki jezički modeli nisu otporni na dezinformacije, kako onda da znamo da li nam je model dao, pre svega, tačnu informaciju na upit?
Urednica Istinomera savetuje korisnike četbotova da uvek traže izvor informacija.
"ChatGPT, ako vam daje neke odgovore, uvek ga treba pitati za izvore. Ne treba nekritički prihvatati, zdravo za gotovo, odgovor koji dobijate u takvom jednom četu. Pretpostavljam da se verzije razlikuju u zavisnosti od toga da li se plaća ili ne, to nisam analizirala, ali potrebno je uvek tražiti izvor. To je uvek preporuka. Neopohodno je da vidite odakle je poruka potekla", navodi ona za NUNS.
VI kao pomoć fektčekerima
Veštačka inteligencija može i da pomogne u razotkrivanju manipulacija i dezinformacija. Pojavom platformi za fektčeking donekle je olakšana borba protiv dezinformacija, ali te analize ipak treba posmatrati sa rezervom.
"Probala sam više platformi za fektčeking, odnosno više tih soba sa alatkama i mogu da pomognu i koriste u radu, ali ne treba da budu jedini izvor za proveru i za dokazivanje. Treba ih uzeti u obzir i njihove rezultate, ali uvek naravno više njih, dakle, ne samo jednu", savetuje Rogač.
I profesionalni fektčekeri, koji se svakodnevno susreću sa dezinformacijama koje su nastale kao produkt ljudske ili veštačke inteligencije, oslanjaju se na VI alate.
Sagovornica NUNS-a navodi da oni u svom radu kombinuju više alata jer nijedan nije sto posto pouzdan.
"Ono na šta se najviše oslanjamo u radu su belingketova baza preporučenih alatki, koje oni koriste u svom radu. I koristimo još jednu ekstenziju, inVID, koja je zapravo soba sa alatkama za različitu vrstu provera fotografija, videa i postova na mrežama. Ali mislim da je važno napomenuti da prilikom bilo kakve provere osim onog osnovnog novinarskog rada, da pratimo kako je došlo, šta je objavljeno i kako i zašto, ako koristimo alatke uvek treba da razmišljamo o kontekstu. Dakle alatke same nisu dovoljne koliko god da su važne danas", objašnjava Rogač.
Ali ipak neće zameniti ljudske fektečekere
VI alati mogu brzo analizirati velike količine podataka, prepoznati obrasce dezinformacija, bot mreže i sumnjive obrasce deljenja sadržaja, a može i označiti potencijalno netačne tvrdnje za dalju analizu.
Sagovornica NUNS-a kaže da VI ipak ne može zameniti ljude u fektčekingu, ali i da novinari ne treba da beže od ovih alatki, već da treba da nauče da ih koriste kao pomoć u radu.
"Ja verujem da ozbiljno, kvalitetno novinarstvo ne može (zameniti VI) i da će u budućnosti mnogo vrednija biti novinarska priča koju su radili ljudi, a ne neki tamo algoritmi. Ali da li će to neke redakcije koristii, verovatno hoće, ne znam. Još uvek je to prilično nepoznato polje i ljudi se ustručavaju za bilo kakvo ozbiljnije korišćenje u redakciji, makar mi to pokazuje iskustvo i razgovor sa kolegama", navodi Rogač.
Community notes kao odgovor na dezinformacije
Kompanija Meta (Fejsbuk, Instagram, Treds) ukinula je ove godine fektčekerski program za borbu protiv dezinformacija i najavila je da će, po ugledu na X Ilona Maska, uvesti "Community notes", koje funkcionišu tako što registrovani korisnici ostavljaju beleške uz objave na mrežama, a one će se prikazivati samo ako ih dovoljan broj različitih korisnika oceni kao korisne.
Ova odluka naišla je na različite reakcije. Neki su je podržali, posebno oni koji su fektčekere optuživali za cenzuru, dok su drugi izrazili zabrinutost jer su fektčekeri utvrđivali istinitost objava na društvenim mrežama na osnovu činjenica, a od sada će se istinitost utvrđivati na osnovu slaganja ili neslaganja većine u jednoj zajednici.
"Comunity notes jeste jedan od odgovra velikih kompanija na manipulacije na njihovim platofrmama. Koliko su efikasne, nisam sigurna, jer i dalje verujem u fektčeking. I dalje verujem u konkretan tekst, analizu, dodavanje konteksta i činjenica razgovoru na platformi. Dakle, comunity notes često se temelje na saglasnosti korisnika da li će nešto biti objavljeno ili ne", navodi izvršna urednica Istinomera.
Ona dodaje da su ove beleške verodostojnije ukoliko sadrže tekst fektčekera.
"Analiza kolage iz Španije, redakcije Maldita pokazuje da su te beleške uspešne i vidljive naročito onda kada sadrže fektčeking tekst. Dakle, uvek kada postoji neki izvor, ljudi bolje reaguju, ali to je opet neki novinarski rad koji stoji iza toga. Ovako, samo komentar kao komentar, pa onda se grupa ljudi usaglasi da je taj komentar ok, pa onda bude objavljen, zaista ne znam koliku informativnu vrednost ima za bilo koga."
Iako veštačka inteligencija može biti moćan saveznik u borbi protiv dezinformacija, ona nije nepogrešiva ni nezavisna. Veliki jezički modeli funkcionišu na osnovu podataka koji mogu biti kontaminirani, a njihovi odgovori deluju uverljivo čak i kada su netačni. Zato je ljudski faktor nezamenjiv. Uloga novinara, fektčekera i medijskih profesionalaca ostaje ključna – ne samo u proveri činjenica, već i u razumevanju konteksta, izvora i posledica informacija koje se šire.
Ukoliko imate potrebu za radnom snagom nudimo vam mogućnost da na jednostavan način oglasite poziciju za posao.
Radno mesto možete oglasiti u odeljku Oglasi za posao ili jednostavno klikom na ovu poruku.
NAJČITANIJE U POSLEDNJIH 72H
Ostalo iz kategorije Info - Nauka i tehnologija
VIDEO Zbog jake solarne oluje: Aurora borealis bila vidljiva i u Srbiji
21.01.2026.•
0
Stanovnici Evrope su u noći između ponedeljka i utorka imali retku priliku da vide polarnu svetlost.
Rusija pokreće svoju verziju Starlinka
20.01.2026.•
1
Rusija će ove godine pokrenuti serijsku proizvodnju satelita za širokopojasni internet i uspostaviti domaću verziju mreže satelita američkog Starlinka, rekao je izvršni direktor državne svemirske korporacije Roskosmos D
Naučnici otkrili koliko je Mars nekada bila plav
20.01.2026.•
0
Mars je prepun dokaza da je Crvena planeta nekada bila upečatljivo plava, sa blistavim jezerima, vijugavim rekama i ogromnim okeanima.
VIDEO: Oštećena kapsula kineske svemirske letelice sletela na Zemlju
19.01.2026.•
2
Oštećena kapsula kineske svemirske letelice Šendžou 20 sletela je na Zemlju.
Astronomi se spremaju da prvi put snime film o aktivnosti crne rupe
19.01.2026.•
0
Astronomi se pripremaju da prvi put snime film koji bi prikazao aktivnost supermasivne crne rupe, a posmatranja bi mogla da otkriju drugu stranu ovih neuhvatljivih svemirskih objekata, piše danas "Gardijan".
Youtube uvodi dodatnu roditeljsku kontrolu, to uključuje i zabranu gledanja Shortsa
18.01.2026.•
0
Youtube uvodi neke dodatne roditeljske kontrole, uključujući način postavljanja vremenskih ograničenja za gledanje Shortsa na tinejdžerskim nalozima.
Prva fabrika automobila u kojoj rade samo roboti biće otvorena 2030. godine
18.01.2026.•
4
Mašine već decenijama pomažu ljudima da brže i preciznije prave nove automobile, ali taj odnos će se uskoro dramatično promeniti.
VIDEO: Roboti rade kao saobraćajci u kineskim gradovima
18.01.2026.•
0
Humanoidni robot počeo je da se koristi kao saobraćajni policajac na ulicama grada Vuhu, na istoku Kine, a opremljen je policijskom uniformom, fluorescentnim prslukom i belom kapom, kao i značkom.
Tiktok uvodi novu tehnologiju za otkrivanje maloletnih korisnika u Evropi
18.01.2026.•
0
Tiktok će u narednim nedeljama početi da uvodi novu tehnologiju za detekciju uzrasta širom Evrope.
VIDEO: Postavljena raketa kojom će astronauti ići na put oko Meseca
18.01.2026.•
2
Raketa američke svemirske agencije NASA, Space Launching System (SLS), najmoćniji operativni sistem za lansiranje na svetu, prebačena je nakon višemesečnih priprema do svoje lansirne rampe na obali u Floridi.
Društvene mreže deaktivirale skoro pet miliona naloga tinejdžera u Australiji
18.01.2026.•
0
Društvene mreže u Australiji kolektivno su deaktivirale skoro pet miliona naloga australijskih tinejdžera.
Na Suncu se formirala velika koronalna rupa - to znači da Zemlji prete nove magnetne oluje
18.01.2026.•
2
Na Suncu se formirala velika koronalna rupa, pokazuju najnoviji podaci Laboratorije za solarnu astronomiju Instituta za istraživanje svemira Ruske akademije nauka i Instituta za solarno-zemaljsku fiziku.
ChatGPT će prikazivati reklame nekim korisnicima
18.01.2026.•
0
Reklame će se uskoro pojaviti na vrhu alata veštačke inteligencije ChatGPT za neke korisnike, saopštila je kompanija OpenAI.
VIDEO: Kako zvuči okretanje magnetnog polja Zemlje
18.01.2026.•
1
Zemljino magnetno polje se dramatično preokrenulo pre otprilike 41.000 godina.
NASA planira da postavi nuklearni reaktor na Mesec do 2030. godine
18.01.2026.•
2
NASA i Ministarstvo energetike SAD ponovo su potvrdili svoj zajednički projekat za razvoj nuklearnog fisijskog reaktora za površinu Meseca.
VIDEO: Roboti rešavaju problem s parkiranjem u prepunim južnokorejskim garažama
18.01.2026.•
0
Automatizovani roboti za parkiranje prelaze iz novine u primenu u stvarnom svetu, a sistem koji se uvodi u Južnoj Koreji pokazuje koliko je pouzdana povezanost važna za uspešno funkcionisanje u velikim razmerama.
Otkrivene skrivene planine i doline ispod ledenog pokrivača Antarktika
17.01.2026.•
0
Naučnici su sa do sada neviđenom preciznošću mapirali stenovitu podlogu ispod ogromnog ledenog pokrivača Antarktika, otkrivajući skrivene geološke strukture koje oblikuju glečere.
Gugl možda pretekne OpenAI i njihov ChatGPT u razvoju veštačke inteligencije
16.01.2026.•
0
Gugl bi zahvaljujući svom novom AI modelu Džemini 3 mogao da preuzme vodeću ulogu u razvoju veštačke inteligencije, tri godine nakon što je kompanija bila zatečena lansiranjem alata Čet GPT kompanije Open AI.
Aplikacija "Da li si mrtav?" hit u Kini
15.01.2026.•
0
Aplikacija pod nazivom "Da li si mrtav?", namenjena ljudima koji žive sami, postala je hit u Kini, što je podstaklo kompaniju da uvede pretplatu i promeni ime aplikacije za globalnu publiku.
VIDEO: Četvoro astronauta se vratilo na Zemlju zbog zdravstvenog stanja jednog od njih
15.01.2026.•
0
Kapsula SpaceX Dragon sa četovoročlanom posadom astronauta sa Međunarodne svemirske stanice bezbedno se spustila u Tihi okean kod obala Kalifornije.
Nakon kritika brojnih zemalja: Grok Ilona Maska više neće praviti seksualizovane slike dece i žena
15.01.2026.•
0
Nalog Grok, četbot veštačke inteligencije platforme Iks milijardera Ilona Maska, neće moći više da menja slike tako da prikazuju oskudno odevene stvarne ljude na mestima gde je to nelegalno, objavila je mreža Iks.
Komentari 0
Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.
Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.
Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.
Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.
Pisanje komentara je ograničeno na 1.500 karaktera.
Napiši komentar