Studija sa Stanforda: Četbotovi nam se toliko ulizuju da daju pogrešne odgovore i savete

Četbotovi sa veštačkom inteligencijom su toliko skloni laskanju i potvrđivanju svojim korisnicima, ljudima, da im daju loše savete koji mogu oštetiti odnose i pojačati štetna ponašanja.
Studija sa Stanforda: Četbotovi nam se toliko ulizuju da daju pogrešne odgovore i savete
Foto: Pixabay
To pokazuje nova studija koja istražuje opasnost od toga da veštačka inteligencija govori ljudima ono što žele da čuju.
 
Studija, objavljena u časopisu "Science", testirala je 11 vodećih sistema veštačke inteligencije i otkrila da svi pokazuju različite stepene ulizištva - ponašanja koje je preterano prijatno i potvrđujuće.
Problem nije samo u tome što četbotovi pružaju neprikladne savete, već u tome što ljudi više veruju i preferiraju veštačku inteligenciju kada četbotovi opravdavaju njihova uverenja.
 
"To stvara perverzne podsticaje za ulizice da opstanu: Upravo ta karakteristika koja uzrokuje štetu takođe pokreće angažovanje", kaže se u studiji koju su vodili istraživači sa Univerziteta Stanford.
 
Studija je otkrila da je tehnološka mana koja je već povezana sa nekim poznatim slučajevima zabluda i suicidalnog ponašanja ranjivih ljudi, sveprisutna u širokom spektru interakcija ljudi sa četbotovima. To je dovoljno suptilno da korisnik možda neće primetiti i predstavlja posebnu opasnost za mlade koji se okreću veštačkoj inteligenciji tražeći odgovore na mnoga životna pitanja dok se njihov mozak i prihvatanje društvenih normi još razvijaju.
Jedan eksperiment je odgovore popularnih veštačkih asistenata koje su napravile kompanije, uključujući Anthropic, Google, Meta i OpenAI, uporedio sa stavovima ljudi na popularnom forumu za savete na Reddit-u.
 
Da li je, na primer, u redu ostaviti smeće da visi na grani drveta u parku, ako u blizini nema kanti za smeće? OpenAI-jev ChatGPT je okrivio park za nedostatak kanti za smeće, a ne onoga ko tako ostavlja smeće koga je "pohvalio" što je uopšte tražio kante. Ljudi su mislili drugačije na Reddit forumu pod nazivom AITA.
 
"Nedostatak kanti za smeće nije propust. To je zato što se očekuje da ponesete smeće kada odete", pisalo je u odgovoru koji je napisao čovek na Reddit-u, a koji su drugi ljudi na forumu potvrdili.
 
Studija je otkrila da su, u proseku, četbotovi sa veštačkom inteligencijom potvrđivali korisničke postupke 49 odsto češće nego ljudi, uključujući i pitanja koja uključuju obmanu, nezakonito ili društveno neodgovorno ponašanje i druga štetna ponašanja.
 
"Hteli smo da proučimo ovaj problem kada smo počeli da primećujemo da sve više ljudi oko nas koristi veštačku inteligenciju za savete o emotivnim vezama i ponekad su zavedeni time kako ona teži da stane na stranu svog korisnika, bez obzira na sve", rekla je autorka istraživanja Majra Čeng, doktorska kandidatkinja računarskih nauka na Stanfordu.
 
Računarski naučnici koji grade velike jezičke modele veštačke inteligencije za četbotove poput ChatGPT-a dugo se bore sa suštinskim problemima u načinu na koji ovi sistemi predstavljaju informacije ljudima. Jedan teško rešiv problem je halucinacija - tendencija jezičkih modela veštačke inteligencije da izmišljaju - lažu zbog načina na koji predviđaju sledeću reč u rečenici na osnovu svih podataka na kojima su obučeni.
 
Ulizivanje je u nekim aspektima komplikovanije. Iako malo ljudi traži od veštačke inteligencije činjenično netačne informacije, mogli bi ceniti - barem trenutno - čet-bota koji im pomaže da se osećaju bolje ako mu kažu da su u nečemu pogrešili.
 
Iako je veliki deo fokusa na ponašanje čet-bota bio usmeren na ton njegovih odgovora, to nije imalo uticaja na rezultate, rekao je koautor studije Sinu Li.
 
"Testirali smo to tako što smo zadržavali isti sadržaj, ali smo način izražavanja činili neutralnijim, ali to nije napravilo nikakvu razliku. Dakle, zapravo se radi o tome šta vam veštačka inteligencija govori o vašim postupcima", rekao je Li, postdoktorski saradnik psihologije.
 
Pored poređenja odgovora čet-bota i Reddita, istraživači su sproveli eksperimente posmatrajući oko 2.400 ljudi kako komuniciraju sa veštačkom inteligencijom o svojim iskustvima i dilemama u odnosu s drugima.
 
"Ljudi koji su radili s preterano afirmativnom veštačkom inteligencijom otišli ​​su uvereniji da su u pravu i manje spremni da poprave odnos. To znači da se nisu izvinjavali, preduzimali korake da poboljšaju stvari ili menjali ponašanje", rekao je Li.
 
Li je rekao da bi posledice utvrđene istraživanjem mogle biti još kritičnije za decu i tinejdžere koji još razvijaju emocionalne veštine koje dolaze iz stvarnih iskustava sa društvenim odnosima, tolerisanjem sukoba, razmatranjem drugih perspektiva i prepoznavanjem kada nisu u pravu.
 
Nalaženje rešenja za probleme veštačke inteligencije biće ključno jer se društvo i dalje bori sa efektima tehnologije društvenih medija posle više od decenije upozorenja roditelja i zagovornika dobrobiti dece.
 
Rizici ulizištva veštačke inteligencije su široko rasprostranjeni.
 
U zdravstvu, kažu istraživači, ulizištvo veštačke inteligencije bi moglo da navede lekare da potvrde svoju prvu pretpostavku o dijagnozi, umesto da ih podstakne da dalje istražuju. U politici bi moglo da pojača ekstremnije stavove potvrđujući opšte predrasude.
 
To bi čak moglo uticati na to kako se sistemi veštačke inteligencije ponašaju u ratovima, kao što je ilustrovano tekućom pravnom borbom kompanije Anthropic i administracije predsednika Donalda Trampa oko toga kako postaviti ograničenja za vojnu upotrebu veštačke inteligencije.
Studija ne predlaže rešenja, a i tehnološke kompanije i akademski istraživači istražuju ideje za to.
 
Radni dokument Instituta za bezbednost veštačke inteligencije u Velikoj Britaniji pokazuje da ako četbot pretvori izjavu korisnika u pitanje, manja je verovatnoća da će biti ulizivanja u odgovoru. Jedan rad istraživača sa Univerziteta Džons Hopkins takođe pokazuje da način na veliku razliku pravi kako je oblikovan "razgovor" s četbotom.
 
"Što ste je izražavanje direktnije, to se model više ulizuje", rekao je Danijel Kašabi, vanredni profesor računarskih nauka na Univerzitetu Džons Hopkins. Rekao je da je teško znati da li je uzrok to što "četbotovi odražavaju ljudsko društvo" ili nešto drugo, "jer su to zaista, zaista složeni sistemi".
 
Ulizivanje je toliko duboko ukorenjeno u četbotove da je Čeng rekla da bi tehnološke kompanije mogle da se vrate na početak i ponovo obuče svoje veštačke inteligencije da bi prilagodile koje vrste odgovora su poželjne.
 
Čeng je rekla da bi jednostavnije rešenje moglo biti da programeri veštačke inteligencije nalože svojim četbotovima da više osporavaju svoje korisnike, na primer tako što će odgovor početi rečima: "Čekajte malo!". 
 
Njen koautor Li je rekao da još ima vremena da se oblikuje način na koji veštačka inteligencija reaguje s ljudima.
 
"Možete zamisliti veštačku inteligenciju koja bi, pored toga što potvrđivala kako se osećate, takođe pitala šta druga osoba možda oseća. Ili koja čak možda kaže: 'Ostavi ovaj čet i idi da lično razgovaraš!'. A to je ovde važno jer je kvalitet naših društvenih odnosa jedan od najjačih prediktora zdravlja i blagostanja koje imamo kao ljudi. Na kraju krajeva, želimo veštačku inteligenciju koja proširuje ljudsku perspektivu, a ne da je sužava".
OGLASI RADNO MESTO!

Ukoliko imate potrebu za radnom snagom nudimo vam mogućnost da na jednostavan način oglasite poziciju za posao.

Radno mesto možete oglasiti u odeljku Oglasi za posao ili jednostavno klikom na ovu poruku.

Komentari 0

    Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.

Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.

Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.

Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.

Pisanje komentara je ograničeno na 1.500 karaktera.

Napiši komentar


Preostalo 1500 karaktera

* Ova polja su obavezna

Ostalo iz kategorije Info - Nauka i tehnologija

OpenAI gasi aplikaciju Sora

Kalifornijska kompanija Open AI saopštila je da će ugasiti svoju popularnu aplikaciju Sora za pretvaranje teksta u kratke video-snimke.

NASA gradi bazu na Mesecu

NASA je otkazala planove o postavljanju svemirske stanice u lunaroj orbiti i umesto toga će iskoristiti njene komponente da u narednih sedam godina izgradi bazu vrednu 20 milijardi dolara na površini Meseca.