Veštačka inteligencija i novinarstvo: Izvor (dez)informacija
U eri ubrzanog razvoja veštačke inteligencije (VI), novinari širom sveta sve češće postavljaju isto pitanje: da li tehnologija koju koristimo da bismo saznali više – može istovremeno da nas obmanjuje?
Foto: 021.rs
Zabrinutost nije neosnovana, piše NUNS.
Veštačka inteligencija, naročito veliki jezički modeli (Large Language Models – LLM), sposobna je da generiše tekst koji deluje uverljivo, ali može biti utemeljen na netačnim, pristrasnim ili čak potpuno izmišljenim informacijama. Poseban problem je zloupotreba LLM i namerno širenje dezinformacija.
Veliki jezički modeli, poput onih koji pokreću alate kao što su ChatGPT, funkcionišu na osnovu ogromnih baza tekstualnih podataka koje preuzimaju sa interneta – uključujući naučne radove, članke, društvene mreže, blogove, forume, pa čak i komentare korisnika. Problem nastaje kada su ti podaci kontaminirani dezinformacijama. Tada, modeli koji su trenirani na ovim podacima, reprodukuju iste greške, predrasude i manipulativne narative – često sa zapanjujućom sigurnošću i uverljivošću.
Osim toga, ljudi često ne mogu da razlikuju VI-generisane lažne informacije od pravih vesti, posebno kada je reč o temama u kojima nemaju predznanje. To dodatno komplikuje zadatak novinara i medijskih profesionalaca, koji moraju da prepoznaju, razobliče i objasne kako funkcioniše mehanizam digitalne obmane.
Koliko su jezički modeli otporni na dezinformacije?
NewsGuard je u junu prošle godine objavio izveštaj u kojem je navedeno da vodeći VI četbotovi – uključujući ChatGPT, Copilot, Gemini i drugi – u 32 odsto slučajeva reprodukuju ruske dezinformacije. Studija je testirala 10 popularnih VI modela kroz 570 upita baziranih na 19 poznatih ruskih propagandnih narativa, uključujući tvrdnje o korupciji predsednika Ukrajine Volodimira Zelenskog.
NewsGuard je istakao da su četbotovi često koristili sumnjive izvore (npr. FlagstaffPost.com, Boston Times), a ponekad su čak i označavali propagandne sajtove kao pouzdane. Neki modeli su odgovarali generičkim izjavama umesto da jasno opovrgnu dezinformaciju, prenosi NUNS.
Iako su u pojedinim slučajevima VI alati tačno demantovali lažne tvrdnje (npr. o luksuznim jahtama Zelenskog), istraživanje je ukazalo na nedovoljnu sposobnost modela da prepoznaju i kritički obrade štetne narative.
U poslednjem izveštaju, za april 2025. navode da je jedanaest vodećih četbotova u proseku ponavljalo lažne tvrdnje u 28,18% slučajeva, što pokazuje da se situacija nije značajnije popravila.
Da veštačka inteligencija nije otporna na dezinformacije potvrđuje i sagovornica NUNS-a Milijana Rogač, izvršna urednica Istinomera. Ona smatra da su, od pojave VI, mogućnosti za manipulisanje mnogo veće u odnosu na ranije.
"Za propagandne akcije i bilo kakve operacije dezinformacija VI je vrlo koristan alat, kao i za širenje i umnožavanje i za preplavljivanje platformi. Tako da, pitanje otpornosti je zapravo pitanje politike velikih kompanija, koje će možda u Evropi, da urade nešto, ali je pitanje kako će da reaguju globalno", navodi Rogač.
Ako veliki jezički modeli nisu otporni na dezinformacije, kako onda da znamo da li nam je model dao, pre svega, tačnu informaciju na upit?
Urednica Istinomera savetuje korisnike četbotova da uvek traže izvor informacija.
"ChatGPT, ako vam daje neke odgovore, uvek ga treba pitati za izvore. Ne treba nekritički prihvatati, zdravo za gotovo, odgovor koji dobijate u takvom jednom četu. Pretpostavljam da se verzije razlikuju u zavisnosti od toga da li se plaća ili ne, to nisam analizirala, ali potrebno je uvek tražiti izvor. To je uvek preporuka. Neopohodno je da vidite odakle je poruka potekla", navodi ona za NUNS.
VI kao pomoć fektčekerima
Veštačka inteligencija može i da pomogne u razotkrivanju manipulacija i dezinformacija. Pojavom platformi za fektčeking donekle je olakšana borba protiv dezinformacija, ali te analize ipak treba posmatrati sa rezervom.
"Probala sam više platformi za fektčeking, odnosno više tih soba sa alatkama i mogu da pomognu i koriste u radu, ali ne treba da budu jedini izvor za proveru i za dokazivanje. Treba ih uzeti u obzir i njihove rezultate, ali uvek naravno više njih, dakle, ne samo jednu", savetuje Rogač.
I profesionalni fektčekeri, koji se svakodnevno susreću sa dezinformacijama koje su nastale kao produkt ljudske ili veštačke inteligencije, oslanjaju se na VI alate.
Sagovornica NUNS-a navodi da oni u svom radu kombinuju više alata jer nijedan nije sto posto pouzdan.
"Ono na šta se najviše oslanjamo u radu su belingketova baza preporučenih alatki, koje oni koriste u svom radu. I koristimo još jednu ekstenziju, inVID, koja je zapravo soba sa alatkama za različitu vrstu provera fotografija, videa i postova na mrežama. Ali mislim da je važno napomenuti da prilikom bilo kakve provere osim onog osnovnog novinarskog rada, da pratimo kako je došlo, šta je objavljeno i kako i zašto, ako koristimo alatke uvek treba da razmišljamo o kontekstu. Dakle alatke same nisu dovoljne koliko god da su važne danas", objašnjava Rogač.
Ali ipak neće zameniti ljudske fektečekere
VI alati mogu brzo analizirati velike količine podataka, prepoznati obrasce dezinformacija, bot mreže i sumnjive obrasce deljenja sadržaja, a može i označiti potencijalno netačne tvrdnje za dalju analizu.
Sagovornica NUNS-a kaže da VI ipak ne može zameniti ljude u fektčekingu, ali i da novinari ne treba da beže od ovih alatki, već da treba da nauče da ih koriste kao pomoć u radu.
"Ja verujem da ozbiljno, kvalitetno novinarstvo ne može (zameniti VI) i da će u budućnosti mnogo vrednija biti novinarska priča koju su radili ljudi, a ne neki tamo algoritmi. Ali da li će to neke redakcije koristii, verovatno hoće, ne znam. Još uvek je to prilično nepoznato polje i ljudi se ustručavaju za bilo kakvo ozbiljnije korišćenje u redakciji, makar mi to pokazuje iskustvo i razgovor sa kolegama", navodi Rogač.
Community notes kao odgovor na dezinformacije
Kompanija Meta (Fejsbuk, Instagram, Treds) ukinula je ove godine fektčekerski program za borbu protiv dezinformacija i najavila je da će, po ugledu na X Ilona Maska, uvesti "Community notes", koje funkcionišu tako što registrovani korisnici ostavljaju beleške uz objave na mrežama, a one će se prikazivati samo ako ih dovoljan broj različitih korisnika oceni kao korisne.
Ova odluka naišla je na različite reakcije. Neki su je podržali, posebno oni koji su fektčekere optuživali za cenzuru, dok su drugi izrazili zabrinutost jer su fektčekeri utvrđivali istinitost objava na društvenim mrežama na osnovu činjenica, a od sada će se istinitost utvrđivati na osnovu slaganja ili neslaganja većine u jednoj zajednici.
"Comunity notes jeste jedan od odgovra velikih kompanija na manipulacije na njihovim platofrmama. Koliko su efikasne, nisam sigurna, jer i dalje verujem u fektčeking. I dalje verujem u konkretan tekst, analizu, dodavanje konteksta i činjenica razgovoru na platformi. Dakle, comunity notes često se temelje na saglasnosti korisnika da li će nešto biti objavljeno ili ne", navodi izvršna urednica Istinomera.
Ona dodaje da su ove beleške verodostojnije ukoliko sadrže tekst fektčekera.
"Analiza kolage iz Španije, redakcije Maldita pokazuje da su te beleške uspešne i vidljive naročito onda kada sadrže fektčeking tekst. Dakle, uvek kada postoji neki izvor, ljudi bolje reaguju, ali to je opet neki novinarski rad koji stoji iza toga. Ovako, samo komentar kao komentar, pa onda se grupa ljudi usaglasi da je taj komentar ok, pa onda bude objavljen, zaista ne znam koliku informativnu vrednost ima za bilo koga."
Iako veštačka inteligencija može biti moćan saveznik u borbi protiv dezinformacija, ona nije nepogrešiva ni nezavisna. Veliki jezički modeli funkcionišu na osnovu podataka koji mogu biti kontaminirani, a njihovi odgovori deluju uverljivo čak i kada su netačni. Zato je ljudski faktor nezamenjiv. Uloga novinara, fektčekera i medijskih profesionalaca ostaje ključna – ne samo u proveri činjenica, već i u razumevanju konteksta, izvora i posledica informacija koje se šire.
Ukoliko imate potrebu za radnom snagom nudimo vam mogućnost da na jednostavan način oglasite poziciju za posao.
Radno mesto možete oglasiti u odeljku Oglasi za posao ili jednostavno klikom na ovu poruku.
NAJČITANIJE U POSLEDNJIH 72H
Ostalo iz kategorije Info - Nauka i tehnologija
NASA planira misiju na Mesec početkom aprila
13.03.2026.•
1
Američka agencija za svemir (NASA) saopštila je da je na dobrom putu da lansira svoju misiju "Artemis II" početkom aprila, u kojoj će astronauti leteti oko Meseca prvi put posle više od 50 godina.
VIDEO: Kineski robot može da radi salto unazad
12.03.2026.•
1
Kineski Pekinški institut za opštu veštačku inteligenciju (BIGAI) predstavio je novi okvir za kretanje humanoidnih robota, OmniXtreme.
Međunarodna svemirska stanica mogla bi da radi duže nego što se predviđalo
12.03.2026.•
0
Međunarodna svemirska stanica bi mogla nastaviti s radom malo duže nego što se do sada očekivalo.
Ig Nobelove nagrade se sele iz SAD zbog političke situacije
12.03.2026.•
0
Ceremonija dodele Ig Nobelovih nagrada, satiričnih priznanja za neobična naučna dostignuća, ove godine će prvi put biti održana van SAD, u Cirihu.
"Srećna ti i bezbedna pucnjava": AI četbotovi često pomažu u planiranju nasilnih napada
12.03.2026.•
0
Popularni AI četbotovi, uključujući ChatGPT i Google Gemini, u testovima su povremeno pružali detaljne instrukcije za nasilne napade, dok su neki, poput "My AI", dosledno odbijali pomoć.
VIDEO: Meteoriti pogodili kuću u Nemačkoj
11.03.2026.•
0
Evropska svemirska agencija saopštila je da istražuje vatrenu kuglu koja je preletela nebom iznad Evrope tokom vikenda pre nego što je navodno probila rupu veličine fudbalske lopte u krovu jedne nemačke kuće.
Španski naučnici razvili veštačku rožnjaču od ribljih krljušti
10.03.2026.•
0
Istraživači sa Univerziteta u Granadi u Španiji razvili su veštačku rožnjaču napravljenu od krljušti nekoliko uobičajenih vrsta riba.
VIDEO: Naučnici otkrili najstariju mapu noćnog neba ikada napravljenu
10.03.2026.•
0
Istraživači pažljivo rekonstruišu najstariju poznatu mapu noćnog neba za koju se ranije mislilo da je zauvek izgubljena, pomoću rendgenskog snimanja pergamenta koji sadrži katalog zvezda sakriven ispod drugog teksta.
Google Play uvodi novinu: Napomene za aplikacije koje više troše bateriju kada se ne koriste
10.03.2026.•
0
Google je počeo da uvodi novu funkciju u Google Play Store, koja bi trebalo da pomogne korisnicima da lakše prepoznaju aplikacije koje mogu prekomerno trošiti bateriju telefona.
Američki naučnici: Vanzemaljci možda pokušavaju da nam se jave, ali svemirske oluje ih ometaju
09.03.2026.•
1
Naučnici američkog Instituta SETI saopštili su da bi nestabilno "svemirsko vreme", poput solarnih oluja i turbulencija plazme oko zvezda, moglo da otežava detekciju radio-signala iz dalekog svemira.
NASA potvrdila: Asteroid ipak neće udariti u Mesec 2032.
08.03.2026.•
0
NASA je isključila svaku mogućnost da asteroid nazvan 2024 YR4 udari u Mesec 2032. godine.
Bojkot ChatGPT-a zbog saradnje kompanije "OpenAI" sa američkom vojskom
07.03.2026.•
0
Saradnja kompanije "OpenAI" sa američkim Ministarstvom odbrane izazvala je talas kritika na društvenim mrežama i pokrenula poziv na bojkot njenog AI alata "ChatGPT"-a.
Veliki brat: Kakvu budućnost nam predviđa AI?
06.03.2026.•
7
Ukoliko čitate ovo znači da ste negde, na nekom mestu, ostavili svoj "digitalni trag". Neko zna nešto o vama.
Tiktok neće uvesti potpunu enkripciju poruka: "Zbog zaštite korisnika"
05.03.2026.•
0
Društvena platforma Tiktok je objavila da neće uvesti potpuno šifrovanje poruka preko enkripcije od kraja do kraja (E2EE) za direktne poruke, pošto smatra da bi to ugrozilo sigurnost korisnika.
Otkrivena najudaljenija "galaksija meduza"
04.03.2026.•
2
Naučnici su, koristeći podatke svemirskog teleskopa Džejms Veb, identifikovali "verovatno najudaljeniju" do sada zabeleženu takozvanu "galaksiju meduzu", čija svetlost do Zemlje putuje oko 8,5 milijardi godina.
Veliki broj ljudi ne može da pristupi Fejsbuku
04.03.2026.•
2
Veliki broj korisnika Fejsbuka i drugih platformi kompanije Meta imaju problema sa korišćenjem ovih društvenih mreža.
Pametne naočare i privatnost: Goli ljudi, detalji bankovnih računa...
04.03.2026.•
1
Podaci o bankovnim karticama, seks i goli ljudi koji izgleda nisu ni svesni da su snimani.
Otkrivena skoro potpuno nevidljiva galaksija
04.03.2026.•
1
Astronomi su uočili galaksiju toliko bledu da je gotovo nevidljiva - otkriće koje bi moglo pomoći da se osvetli jedna od najneuhvatljivijih supstanci u univerzumu.
Rusija će 1. aprila blokirati Telegram
01.03.2026.•
2
Ruske vlasti odredile su vremenski rok za blokiranje mesindžera Telegram i razmatraju preduzimanje ove mere početkom aprila.
Papa moli sveštenike da prestanu da pišu propovedi koristeći ChatGPT
01.03.2026.•
2
Na sastanku iza zatvorenih vrata sa sveštenstvom iz biskupije Rima krajem prošle nedelje, papa Lav XIV zasuo je svoje sveštenike zahtevom da se odupru "iskušenju da pripremaju homilije uz veštačku inteligenciju".
VIDEO: Uber najavio uslugu letećeg taksija u Dubaiju ove godine
01.03.2026.•
0
Uber je korak bliže pokretanju usluge letećeg taksija, koja će zaživeti u Dubaiju kasnije ove godine.
Komentari 0
Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.
Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.
Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.
Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.
Pisanje komentara je ograničeno na 1.500 karaktera.
Napiši komentar