
Veštačka inteligencija i novinarstvo: Izvor (dez)informacija
U eri ubrzanog razvoja veštačke inteligencije (VI), novinari širom sveta sve češće postavljaju isto pitanje: da li tehnologija koju koristimo da bismo saznali više – može istovremeno da nas obmanjuje?

Foto: 021.rs
Zabrinutost nije neosnovana, piše NUNS.
Veštačka inteligencija, naročito veliki jezički modeli (Large Language Models – LLM), sposobna je da generiše tekst koji deluje uverljivo, ali može biti utemeljen na netačnim, pristrasnim ili čak potpuno izmišljenim informacijama. Poseban problem je zloupotreba LLM i namerno širenje dezinformacija.
Veliki jezički modeli, poput onih koji pokreću alate kao što su ChatGPT, funkcionišu na osnovu ogromnih baza tekstualnih podataka koje preuzimaju sa interneta – uključujući naučne radove, članke, društvene mreže, blogove, forume, pa čak i komentare korisnika. Problem nastaje kada su ti podaci kontaminirani dezinformacijama. Tada, modeli koji su trenirani na ovim podacima, reprodukuju iste greške, predrasude i manipulativne narative – često sa zapanjujućom sigurnošću i uverljivošću.
Osim toga, ljudi često ne mogu da razlikuju VI-generisane lažne informacije od pravih vesti, posebno kada je reč o temama u kojima nemaju predznanje. To dodatno komplikuje zadatak novinara i medijskih profesionalaca, koji moraju da prepoznaju, razobliče i objasne kako funkcioniše mehanizam digitalne obmane.
Koliko su jezički modeli otporni na dezinformacije?
NewsGuard je u junu prošle godine objavio izveštaj u kojem je navedeno da vodeći VI četbotovi – uključujući ChatGPT, Copilot, Gemini i drugi – u 32 odsto slučajeva reprodukuju ruske dezinformacije. Studija je testirala 10 popularnih VI modela kroz 570 upita baziranih na 19 poznatih ruskih propagandnih narativa, uključujući tvrdnje o korupciji predsednika Ukrajine Volodimira Zelenskog.
NewsGuard je istakao da su četbotovi često koristili sumnjive izvore (npr. FlagstaffPost.com, Boston Times), a ponekad su čak i označavali propagandne sajtove kao pouzdane. Neki modeli su odgovarali generičkim izjavama umesto da jasno opovrgnu dezinformaciju, prenosi NUNS.
Iako su u pojedinim slučajevima VI alati tačno demantovali lažne tvrdnje (npr. o luksuznim jahtama Zelenskog), istraživanje je ukazalo na nedovoljnu sposobnost modela da prepoznaju i kritički obrade štetne narative.
U poslednjem izveštaju, za april 2025. navode da je jedanaest vodećih četbotova u proseku ponavljalo lažne tvrdnje u 28,18% slučajeva, što pokazuje da se situacija nije značajnije popravila.
Da veštačka inteligencija nije otporna na dezinformacije potvrđuje i sagovornica NUNS-a Milijana Rogač, izvršna urednica Istinomera. Ona smatra da su, od pojave VI, mogućnosti za manipulisanje mnogo veće u odnosu na ranije.
"Za propagandne akcije i bilo kakve operacije dezinformacija VI je vrlo koristan alat, kao i za širenje i umnožavanje i za preplavljivanje platformi. Tako da, pitanje otpornosti je zapravo pitanje politike velikih kompanija, koje će možda u Evropi, da urade nešto, ali je pitanje kako će da reaguju globalno", navodi Rogač.
Ako veliki jezički modeli nisu otporni na dezinformacije, kako onda da znamo da li nam je model dao, pre svega, tačnu informaciju na upit?
Urednica Istinomera savetuje korisnike četbotova da uvek traže izvor informacija.
"ChatGPT, ako vam daje neke odgovore, uvek ga treba pitati za izvore. Ne treba nekritički prihvatati, zdravo za gotovo, odgovor koji dobijate u takvom jednom četu. Pretpostavljam da se verzije razlikuju u zavisnosti od toga da li se plaća ili ne, to nisam analizirala, ali potrebno je uvek tražiti izvor. To je uvek preporuka. Neopohodno je da vidite odakle je poruka potekla", navodi ona za NUNS.
VI kao pomoć fektčekerima
Veštačka inteligencija može i da pomogne u razotkrivanju manipulacija i dezinformacija. Pojavom platformi za fektčeking donekle je olakšana borba protiv dezinformacija, ali te analize ipak treba posmatrati sa rezervom.
"Probala sam više platformi za fektčeking, odnosno više tih soba sa alatkama i mogu da pomognu i koriste u radu, ali ne treba da budu jedini izvor za proveru i za dokazivanje. Treba ih uzeti u obzir i njihove rezultate, ali uvek naravno više njih, dakle, ne samo jednu", savetuje Rogač.
I profesionalni fektčekeri, koji se svakodnevno susreću sa dezinformacijama koje su nastale kao produkt ljudske ili veštačke inteligencije, oslanjaju se na VI alate.
Sagovornica NUNS-a navodi da oni u svom radu kombinuju više alata jer nijedan nije sto posto pouzdan.
"Ono na šta se najviše oslanjamo u radu su belingketova baza preporučenih alatki, koje oni koriste u svom radu. I koristimo još jednu ekstenziju, inVID, koja je zapravo soba sa alatkama za različitu vrstu provera fotografija, videa i postova na mrežama. Ali mislim da je važno napomenuti da prilikom bilo kakve provere osim onog osnovnog novinarskog rada, da pratimo kako je došlo, šta je objavljeno i kako i zašto, ako koristimo alatke uvek treba da razmišljamo o kontekstu. Dakle alatke same nisu dovoljne koliko god da su važne danas", objašnjava Rogač.
Ali ipak neće zameniti ljudske fektečekere
VI alati mogu brzo analizirati velike količine podataka, prepoznati obrasce dezinformacija, bot mreže i sumnjive obrasce deljenja sadržaja, a može i označiti potencijalno netačne tvrdnje za dalju analizu.
Sagovornica NUNS-a kaže da VI ipak ne može zameniti ljude u fektčekingu, ali i da novinari ne treba da beže od ovih alatki, već da treba da nauče da ih koriste kao pomoć u radu.
"Ja verujem da ozbiljno, kvalitetno novinarstvo ne može (zameniti VI) i da će u budućnosti mnogo vrednija biti novinarska priča koju su radili ljudi, a ne neki tamo algoritmi. Ali da li će to neke redakcije koristii, verovatno hoće, ne znam. Još uvek je to prilično nepoznato polje i ljudi se ustručavaju za bilo kakvo ozbiljnije korišćenje u redakciji, makar mi to pokazuje iskustvo i razgovor sa kolegama", navodi Rogač.
Community notes kao odgovor na dezinformacije
Kompanija Meta (Fejsbuk, Instagram, Treds) ukinula je ove godine fektčekerski program za borbu protiv dezinformacija i najavila je da će, po ugledu na X Ilona Maska, uvesti "Community notes", koje funkcionišu tako što registrovani korisnici ostavljaju beleške uz objave na mrežama, a one će se prikazivati samo ako ih dovoljan broj različitih korisnika oceni kao korisne.
Ova odluka naišla je na različite reakcije. Neki su je podržali, posebno oni koji su fektčekere optuživali za cenzuru, dok su drugi izrazili zabrinutost jer su fektčekeri utvrđivali istinitost objava na društvenim mrežama na osnovu činjenica, a od sada će se istinitost utvrđivati na osnovu slaganja ili neslaganja većine u jednoj zajednici.
"Comunity notes jeste jedan od odgovra velikih kompanija na manipulacije na njihovim platofrmama. Koliko su efikasne, nisam sigurna, jer i dalje verujem u fektčeking. I dalje verujem u konkretan tekst, analizu, dodavanje konteksta i činjenica razgovoru na platformi. Dakle, comunity notes često se temelje na saglasnosti korisnika da li će nešto biti objavljeno ili ne", navodi izvršna urednica Istinomera.
Ona dodaje da su ove beleške verodostojnije ukoliko sadrže tekst fektčekera.
"Analiza kolage iz Španije, redakcije Maldita pokazuje da su te beleške uspešne i vidljive naročito onda kada sadrže fektčeking tekst. Dakle, uvek kada postoji neki izvor, ljudi bolje reaguju, ali to je opet neki novinarski rad koji stoji iza toga. Ovako, samo komentar kao komentar, pa onda se grupa ljudi usaglasi da je taj komentar ok, pa onda bude objavljen, zaista ne znam koliku informativnu vrednost ima za bilo koga."
Iako veštačka inteligencija može biti moćan saveznik u borbi protiv dezinformacija, ona nije nepogrešiva ni nezavisna. Veliki jezički modeli funkcionišu na osnovu podataka koji mogu biti kontaminirani, a njihovi odgovori deluju uverljivo čak i kada su netačni. Zato je ljudski faktor nezamenjiv. Uloga novinara, fektčekera i medijskih profesionalaca ostaje ključna – ne samo u proveri činjenica, već i u razumevanju konteksta, izvora i posledica informacija koje se šire.
OBRATI PAŽNJU! Osvežili smo platformu sa muzičkim kanalima, a preko koje možete slušati i Radio 021. Preporučujemo vam novu kategoriju - LOUNGE, za baš dobar užitak i relax tokom dana. Vaš 021!
NAJČITANIJE U POSLEDNJIH 72H
Ostalo iz kategorije Info - Nauka i tehnologija
U nedelju potpuno pomračenje Meseca, biće vidljivo i iz Srbije
02.09.2025.•
1
Potpuno pomračenje Meseca moći će u celosti da se posmatra iz Srbije u nedelju 7. septembra, saopšteno je iz Astronomskog društva "Ruđer Bošković" iz Beograda.
DNK se uvija i zapetljava pod stresom
31.08.2025.•
0
Nova studija pokazuje da se DNK pod stresom uvija u spirale, a ne u zamršene čvorove kako su naučnici dugo mislili.
VIDEO: Otvoren prvi tržni centar koji ima samo robote
31.08.2025.•
0
U srcu pekinškog visokotehnološkog okruga E-Taun, scena koja se donedavno mogla videti samo u naučnofantastičnim filmovima postala je stvarnost.
ChatGPT nudio recepte za bombe, antraks i savete za hakovanje tokom bezbednosnih testova
31.08.2025.•
1
Veštačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat.
Apple početkom septembra predstavlja tri modela iz nove serije iPhone 17
28.08.2025.•
0
Američka tehnološka kompanija Apple predstaviće novu generaciju iPhone uređaja 9. septembra u Teatru Stiva Džobsa u Kupertinu.
VIDEO: SpaceX nakon dva odlaganja uspešno lansirao Starship
27.08.2025.•
2
Sa dva dana zakašnjenja, SpaceX Ilona Maska uspešno je lansirao svoju raketu Super Heavy-Starship, što je ocenjeno kao izuzetno uspešan probni let nakon tri uzastopna neuspeha ranije ove godine, piše CBS news.
Naučnici prvi put zavirili u unutrašnjost eksplodirane zvezde
27.08.2025.•
0
Naučnici su prvi put uspeli da zavire u unutrašnjost zvezde koja je eksplodirala, pružajući redak uvid u završne faze života masivnih zvezda.
Drugi dan zaredom odloženo lansiranje Starshipa
26.08.2025.•
0
Kompanija SpaceX Ilona Maska ponovo je otkazala probni let svoje megarakete StarShip u ponedeljak, navodeći kao razlog loše vremenske uslove.
Ilon Mask tužio Apple i OpenAI: "Štete industriji veštačke inteligencije"
26.08.2025.•
1
Američki milijarder Ilon Mask podneo je tužbe protiv kompanije Apple i OpenAI tvrdeći da štete industriji veštačke inteligencije.
Probni let Starshipa odložen zbog tehničkih problema
25.08.2025.•
0
Kompanija SpaceX milijardera Ilona Maska otkazala je lansiranje desete rakete Starship iz Teksasa zbog tehničkih problema na lansirnom mestu.
Majkrosoftov stručnjak: Ne smemo da pravimo veštačku inteligenciju koja glumi ljude
24.08.2025.•
2
Ne smemo da pravimo veštačku inteligenciju koja glumi ljude, to je opasan put, objavio je direktor odeljenja za veštačku inteligenciju u Majkrosoftu Mustafa Sulejman na svom blogu.
Studija: Za Evropu bi bili korisni solarni paneli u svemiru
24.08.2025.•
0
Solarni paneli u svemiru mogli bi da pokriju 80 odsto potreba Evrope za obnovljivom energijom do 2050. godine, pokazala je najnovija studija.
Hongkong će koristiti robotske pse u borbi protiv komaraca
24.08.2025.•
0
Vlasti u Hongkongu se pripremaju za usvajanje najnovije tehnologije za borbu protiv rastućeg broja slučajeva zaraza virusom čikungunja, koji prenose komarci.
VIDEO: Napravljen humanoidni robot koji sam sebi menja bateriju - može da radi non-stop
24.08.2025.•
0
Novi humanoidni robot iz Kine može sam da promeni svoju bateriju. To predstavlja još jedan korak ka potpuno autonomnim mašinama sposobnim da rade 24/7.
Jedan AI upit potroši energije kao devet sekundi TV-a
24.08.2025.•
0
Jedan tekstualni upit Google-ovom softveru za veštačku inteligenciju - Google Gemini AI Assistant - potroši nešto manje struje od devet sekundi rada televizora.
Potraga za vanzemaljcima: Život u Sunčevom sistemu van Zemlje bio moguć
23.08.2025.•
0
Potraga za vanzemaljcima navela je astronome da istražuju najudaljenije delove univerzuma u potrazi za tragovima života. Ali nova studija ukazuje da možda ne moramo da gledamo tako daleko od kuće.
Meta će potrošiti više od 10 milijardi dolara za klaud usluge Gugla
23.08.2025.•
0
Kompanija Meta, vlasnica Fejsbuka i Instagrama potpisala je ugovor sa Gugl Klaudom za više od 10 milijardi dolara da koristi njegove servere i druge informatičke usluge na daljinu, objavio je jedan neimenovani izvor.
Teleskop Džejms Veb otkrio novi mesec koji kruži oko Urana
20.08.2025.•
0
Američka svemirska agencija NASA saopštila je da je njen svemirski teleskop Džejms Veb otkrio novi prirodni satelit koji kruži oko Urana.
VIDEO: Vatrena kugla proletela i osvetlila nebo nad Japanom
20.08.2025.•
0
Misteriozni objekat nakratko je osvetlio nebo na zapadu Japana dok je padao.
Kineski inženjeri napravili prototip plutajuće vetroturbine
17.08.2025.•
1
Kineski inženjeri napravili su prototip plutajuće vetroturbine za koju tvrde da je oborila rekorde u proizvodnji struje, što bi moglo da označi početak nove generacije obnovljivih izvora energije.
VIDEO: SAD koriste skrivene lokatore da prate ilegalne isporuke AI čipova Nvidije i AMD-a ka Kini
17.08.2025.•
0
Američke vlasti koriste skrivena sredstva praćenja kako bi otkrile nezakonite isporuke naprednih čipova sa kapacitetima za veštačku inteligenciju u Kinu, prenosi Rojters pozivajući se na dva anonimna upućena izvora.
Komentari 0
Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.
Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.
Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.
Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.
Pisanje komentara je ograničeno na 1.500 karaktera.
Napiši komentar