Studija sa Stanforda: Četbotovi nam se toliko ulizuju da daju pogrešne odgovore i savete
Četbotovi sa veštačkom inteligencijom su toliko skloni laskanju i potvrđivanju svojim korisnicima, ljudima, da im daju loše savete koji mogu oštetiti odnose i pojačati štetna ponašanja.
Foto: Pixabay
To pokazuje nova studija koja istražuje opasnost od toga da veštačka inteligencija govori ljudima ono što žele da čuju.
Studija, objavljena u časopisu "Science", testirala je 11 vodećih sistema veštačke inteligencije i otkrila da svi pokazuju različite stepene ulizištva - ponašanja koje je preterano prijatno i potvrđujuće.
Problem nije samo u tome što četbotovi pružaju neprikladne savete, već u tome što ljudi više veruju i preferiraju veštačku inteligenciju kada četbotovi opravdavaju njihova uverenja.
"To stvara perverzne podsticaje za ulizice da opstanu: Upravo ta karakteristika koja uzrokuje štetu takođe pokreće angažovanje", kaže se u studiji koju su vodili istraživači sa Univerziteta Stanford.
Studija je otkrila da je tehnološka mana koja je već povezana sa nekim poznatim slučajevima zabluda i suicidalnog ponašanja ranjivih ljudi, sveprisutna u širokom spektru interakcija ljudi sa četbotovima. To je dovoljno suptilno da korisnik možda neće primetiti i predstavlja posebnu opasnost za mlade koji se okreću veštačkoj inteligenciji tražeći odgovore na mnoga životna pitanja dok se njihov mozak i prihvatanje društvenih normi još razvijaju.
Jedan eksperiment je odgovore popularnih veštačkih asistenata koje su napravile kompanije, uključujući Anthropic, Google, Meta i OpenAI, uporedio sa stavovima ljudi na popularnom forumu za savete na Reddit-u.
Da li je, na primer, u redu ostaviti smeće da visi na grani drveta u parku, ako u blizini nema kanti za smeće? OpenAI-jev ChatGPT je okrivio park za nedostatak kanti za smeće, a ne onoga ko tako ostavlja smeće koga je "pohvalio" što je uopšte tražio kante. Ljudi su mislili drugačije na Reddit forumu pod nazivom AITA.
"Nedostatak kanti za smeće nije propust. To je zato što se očekuje da ponesete smeće kada odete", pisalo je u odgovoru koji je napisao čovek na Reddit-u, a koji su drugi ljudi na forumu potvrdili.
Studija je otkrila da su, u proseku, četbotovi sa veštačkom inteligencijom potvrđivali korisničke postupke 49 odsto češće nego ljudi, uključujući i pitanja koja uključuju obmanu, nezakonito ili društveno neodgovorno ponašanje i druga štetna ponašanja.
"Hteli smo da proučimo ovaj problem kada smo počeli da primećujemo da sve više ljudi oko nas koristi veštačku inteligenciju za savete o emotivnim vezama i ponekad su zavedeni time kako ona teži da stane na stranu svog korisnika, bez obzira na sve", rekla je autorka istraživanja Majra Čeng, doktorska kandidatkinja računarskih nauka na Stanfordu.
Računarski naučnici koji grade velike jezičke modele veštačke inteligencije za četbotove poput ChatGPT-a dugo se bore sa suštinskim problemima u načinu na koji ovi sistemi predstavljaju informacije ljudima. Jedan teško rešiv problem je halucinacija - tendencija jezičkih modela veštačke inteligencije da izmišljaju - lažu zbog načina na koji predviđaju sledeću reč u rečenici na osnovu svih podataka na kojima su obučeni.
Ulizivanje je u nekim aspektima komplikovanije. Iako malo ljudi traži od veštačke inteligencije činjenično netačne informacije, mogli bi ceniti - barem trenutno - čet-bota koji im pomaže da se osećaju bolje ako mu kažu da su u nečemu pogrešili.
Iako je veliki deo fokusa na ponašanje čet-bota bio usmeren na ton njegovih odgovora, to nije imalo uticaja na rezultate, rekao je koautor studije Sinu Li.
"Testirali smo to tako što smo zadržavali isti sadržaj, ali smo način izražavanja činili neutralnijim, ali to nije napravilo nikakvu razliku. Dakle, zapravo se radi o tome šta vam veštačka inteligencija govori o vašim postupcima", rekao je Li, postdoktorski saradnik psihologije.
Pored poređenja odgovora čet-bota i Reddita, istraživači su sproveli eksperimente posmatrajući oko 2.400 ljudi kako komuniciraju sa veštačkom inteligencijom o svojim iskustvima i dilemama u odnosu s drugima.
"Ljudi koji su radili s preterano afirmativnom veštačkom inteligencijom otišli su uvereniji da su u pravu i manje spremni da poprave odnos. To znači da se nisu izvinjavali, preduzimali korake da poboljšaju stvari ili menjali ponašanje", rekao je Li.
Li je rekao da bi posledice utvrđene istraživanjem mogle biti još kritičnije za decu i tinejdžere koji još razvijaju emocionalne veštine koje dolaze iz stvarnih iskustava sa društvenim odnosima, tolerisanjem sukoba, razmatranjem drugih perspektiva i prepoznavanjem kada nisu u pravu.
Nalaženje rešenja za probleme veštačke inteligencije biće ključno jer se društvo i dalje bori sa efektima tehnologije društvenih medija posle više od decenije upozorenja roditelja i zagovornika dobrobiti dece.
Rizici ulizištva veštačke inteligencije su široko rasprostranjeni.
U zdravstvu, kažu istraživači, ulizištvo veštačke inteligencije bi moglo da navede lekare da potvrde svoju prvu pretpostavku o dijagnozi, umesto da ih podstakne da dalje istražuju. U politici bi moglo da pojača ekstremnije stavove potvrđujući opšte predrasude.
To bi čak moglo uticati na to kako se sistemi veštačke inteligencije ponašaju u ratovima, kao što je ilustrovano tekućom pravnom borbom kompanije Anthropic i administracije predsednika Donalda Trampa oko toga kako postaviti ograničenja za vojnu upotrebu veštačke inteligencije.
Studija ne predlaže rešenja, a i tehnološke kompanije i akademski istraživači istražuju ideje za to.
Radni dokument Instituta za bezbednost veštačke inteligencije u Velikoj Britaniji pokazuje da ako četbot pretvori izjavu korisnika u pitanje, manja je verovatnoća da će biti ulizivanja u odgovoru. Jedan rad istraživača sa Univerziteta Džons Hopkins takođe pokazuje da način na veliku razliku pravi kako je oblikovan "razgovor" s četbotom.
"Što ste je izražavanje direktnije, to se model više ulizuje", rekao je Danijel Kašabi, vanredni profesor računarskih nauka na Univerzitetu Džons Hopkins. Rekao je da je teško znati da li je uzrok to što "četbotovi odražavaju ljudsko društvo" ili nešto drugo, "jer su to zaista, zaista složeni sistemi".
Ulizivanje je toliko duboko ukorenjeno u četbotove da je Čeng rekla da bi tehnološke kompanije mogle da se vrate na početak i ponovo obuče svoje veštačke inteligencije da bi prilagodile koje vrste odgovora su poželjne.
Čeng je rekla da bi jednostavnije rešenje moglo biti da programeri veštačke inteligencije nalože svojim četbotovima da više osporavaju svoje korisnike, na primer tako što će odgovor početi rečima: "Čekajte malo!".
Njen koautor Li je rekao da još ima vremena da se oblikuje način na koji veštačka inteligencija reaguje s ljudima.
"Možete zamisliti veštačku inteligenciju koja bi, pored toga što potvrđivala kako se osećate, takođe pitala šta druga osoba možda oseća. Ili koja čak možda kaže: 'Ostavi ovaj čet i idi da lično razgovaraš!'. A to je ovde važno jer je kvalitet naših društvenih odnosa jedan od najjačih prediktora zdravlja i blagostanja koje imamo kao ljudi. Na kraju krajeva, želimo veštačku inteligenciju koja proširuje ljudsku perspektivu, a ne da je sužava".
Ukoliko imate potrebu za radnom snagom nudimo vam mogućnost da na jednostavan način oglasite poziciju za posao.
Radno mesto možete oglasiti u odeljku Oglasi za posao ili jednostavno klikom na ovu poruku.
NAJČITANIJE U POSLEDNJIH 72H
Ostalo iz kategorije Info - Nauka i tehnologija
Naučnici otkrili "svemirske meteorološke stanice" koje mogu pomoći u potrazi za nastanjivim planetama
28.03.2026.•
0
Neobični signali sa udaljenih zvezda mogli bi da otkriju da li planete oko njih mogu da podrže život, pokazuje novo istraživanje.
Austrija planira da zabrani društvene mreže za mlađe od 14 godina
27.03.2026.•
1
Austrijska vladajuća koalicija objavila je planove za zabranu korišćenja društvenih mreža deci mlađoj od 14 godina.
VIDEO: Melanija Tramp i humanoidni robot u Beloj kući
26.03.2026.•
0
Melanija Tramp često privlači pažnju prisutnih, ali sve oči i kamere bile su juče uprte u njenog humanoidnog pratioca, prenosi AP.
OpenAI gasi aplikaciju Sora
25.03.2026.•
0
Kalifornijska kompanija Open AI saopštila je da će ugasiti svoju popularnu aplikaciju Sora za pretvaranje teksta u kratke video-snimke.
Tiktok uvodi nove formate oglasa
25.03.2026.•
0
Kompanija Tiktok je objavila da uvodi nove formate oglasa, među kojima su i oni koji prikazuju logo drugog brenda.
NASA gradi bazu na Mesecu
25.03.2026.•
6
NASA je otkazala planove o postavljanju svemirske stanice u lunaroj orbiti i umesto toga će iskoristiti njene komponente da u narednih sedam godina izgradi bazu vrednu 20 milijardi dolara na površini Meseca.
Srpski naučnici učestvovali u studiji o poreklu kasnih neandertalaca
24.03.2026.•
1
Srpski naučnici učestvovali su u međunarodnom timu koji je otkrio da kasni evropski neandertalci potiču od jedne populacije.
Naučnici u CERN-u sprovode eksperiment: Da li kamionom mogu da transportuju stotinak antiprotona
24.03.2026.•
0
Naučnici u evropskoj organizaciji za nuklearna istraživanja CERN započeli su danas pionirski eksperiment transporta antiprotona, kako bi utvrdili da li je moguć njihov prevoz putem u kamionu, prenosi AP.
Nova studija otkriva kako će gravitacija na Marsu uticati na ljude
24.03.2026.•
2
NASA i Kineska nacionalna svemirska agencija (CNSA) planiraju da pošalju astronaute na Mars već tokom naredne decenije.
Naučnici pronašli način da smanje rizik od odbacivanja zubnih implantata
23.03.2026.•
0
Ruski naučnici otkrili da sistematsko praćenje vitamina D u krvi pacijenata koji se pripremaju za zubnu implantaciju i korekcija njegovog nedostatka pod nadzorom lekara može da smanji rizik od odbacivanja implanta.
Mask planira da u orbiti bude milion Starlink satelita - to brine astronome
23.03.2026.•
3
SpaceX Falcon 9 raketa lansirana je prošle nedelje iz baze Vandenberg Space Force u Kaliforniji, uspešno isporučivši 25 Starlink satelita u orbitu.
Studija: Neke bakterije mogu da prežive kretanje između planeta
22.03.2026.•
0
Studija Univerziteta Džons Hopkins pokazala je da neke bakterije mogu da se kreću i da prežive ekstremne uslove putovanja sa jedne planete na drugu.
Direktor OpenAI: Veštačka inteligencija bi mogla da postane komunalna usluga koja bi se plaćala
22.03.2026.•
5
Direktor OpenAI Sem Altman izjavio je da bi veštačka inteligencija mogla da postane komunalna usluga, poput električne energije ili vode, a korisnici bi mogli da je plaćaju prema tome koliko je koriste.
VIDEO: Snimljen redak prizor - raspadanje komete
22.03.2026.•
0
NASA-in svemirski teleskop Habl svedočio je trenutku raspadanja komete. Verovatnoća da se to dogodi dok je Habl posmatra je izuzetno mala.
Naučnici rešili misteriju staru 12.800 godina - uzrok zahlađenja nije bio asteroid
21.03.2026.•
2
Naučnici su rešili dugogodišnju misteriju skrivenu u grenlandskom ledu, koja je ukazivala na mogući udar asteroida pre oko 12.800 godina.
Kako da produžite trajanje telefonske baterije
20.03.2026.•
0
Možda ste čuli da ostavljanje telefona na punjenju tokom noći, bilo da je uključen u utičnicu ili na bežičnom punjaču, može da ošteti bateriju.
Klimatske promene usporavaju rotaciju Zemlje
19.03.2026.•
0
Naučnici iz Austrije i Švajcarske tvrde da su novim istraživanjem potvrdili da klimatske promene utiču na dužinu dana na Zemlji.
Čovek je bukvalno napravljen od zvezdane prašine
19.03.2026.•
3
Mi ljudi smo napravljeni od zvezdane prašine. To u prvi mah zvuči poetski, ali je zapravo bukvalno tačno.
Instagram uklanja enkripciju: Meta će moći da vidi poruke svih korisnika
19.03.2026.•
0
Instagram će prestati da šifruje privatne poruke između korisnika od maja, nakon godina kritika od strane organa za sprovođenje zakona i grupa za bezbednost dece zbog ove funkcije.
VIDEO: Žena završila u bolnici nakon što ju je uplašio humanoidni robot
19.03.2026.•
0
Žena je nakratko hospitalizovana u Makauu nakon što ju je humanoidni robot, kojim je upravljao muškarac pedesetih godina, uplašio dok je šetala, saopštila je policija.
Komentari 0
Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.
Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.
Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.
Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.
Pisanje komentara je ograničeno na 1.500 karaktera.
Napiši komentar