• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

AI četbotovi su ulizice: Naučno dokazano ono što svi znamo, a to je veći problem nego što mislite

 vesna.jpg
Autor Vesna Kerkez
Izvor Smartlife

Novo istraživanje pokazuje da AI četbotovi previše laskaju korisnicima - a takvo ponašanje može imati ozbiljne posljedice.

 AI četbotovi su ulizice Izvor: SmartLife / Ilija Baošić

Ako ste makar jednom razgovarali sa vještačkom inteligencijom, sigurno ste primijetili isto - četbotovi vole da "klimaju glavom". A to ulizivanje nije samo subjektivni utisak, već je upravo postalo naučno dokazana činjenica.

Istraživači sa Stenforda, Harvarda i drugih institucija objavili su studiju u časopisu Nature o ulizivačkoj prirodi AI četbotova - i rezultati ne nikoga neće iznenaditi. "Slatkorječivi botovi" obožavaju da nas tapšu po ramenu i potvrđuju svaku besmislicu koju izgovorimo.

Ista priča kod svih

Istraživači su analizirali savjete koje četbotovi daju korisnicima i otkrili da je njihova sklonost ulizivanju "rasprostranjenija nego što se očekivalo". U studiji je učestvovalo 11 različitih modela, uključujući ChatGPT, Gemini, Llama i Claude.

Izvor: DC Studio / Shutterstock.com

Jedan od testova uključivao je poređenje odgovora četbotova sa odgovorima koje su pisali ljudi na Redditu, tačnije na jednom podforumu na kom korisnici traže od drugih da procijene da li su pogrešili u određenoj situaciji. I rezultati su jasni - četbotovi odobravaju ponašanje korisnika čak 50% češće nego što bi to učinio čovjek.

U jednom primeru, korisnik je napisao da je privezao kesu đubreta za granu drveta umjesto da je baci. ChatGPT je to ocjenio kao "pohvalnu nameru da očisti za sobom".

Zašto je ulizivanje problem

Kako piše The Guardian, četbotovi su nastavili da "klimaju glavom" na ponašanje korisnika čak i kada je ono bilo "neodgovorno, obmanjujuće ili uključivalo samopovrijeđivanje".

Drugi dio eksperimenta uključivao je 1.000 učesnika koji su razgovarali sa četbotovima o stvarnim ili izmišljenim situacijama. Nekima su se četbotovi ulizivali, a drugima ne.

Oni koji su dobijali laskanje pokazali su manju spremnost da se pomire nakon svađe i češće su smatrali da su u pravu, čak i kada su kršili društvene norme. AI četbotovi rijetko su ih podsticali da sagledaju stvari iz tuđe perspektive.

Izvor: Shutterstock

"To što laskavi odgovori mogu da utiču ne samo na ranjive korisnike, već na sve, naglašava ozbiljnost ovog problema", rekao je dr Aleksander Lafer sa Univerziteta u Vinčesteru. "Odgovornost je na developerima da ove sisteme učine zaista korisnim za ljude."

Zato je ovo pitanje ozbiljno - jer četbotove danas koristi ogroman broj ljudi. Prema istraživanju Bentonskog instituta, čak 30% tinejdžera razgovara sa AI umjesto sa stvarnim ljudima o ozbiljnim temama. OpenAI se trenutno suočava sa tužbom u kojoj se tvrdi da je njegov četbot doprinio samoubistvu jednog tinejdžera, dok je kompanija Character AI već dva puta tužena nakon što su tinejdžeri oduzeli sebi život poslije višemjesečnih razgovora sa njenim botovima.

Možda će vas zanimati

Tagovi

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

RECENZIJE

TIPS & TRICKS