• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

Velika studija o uticaju AI savjeta: Ako vam chatbot piše da ste sve u pravu, ne vjerujte mu

 Vensa Kerkez
Autor Vesna Kerkez
Izvor Smartlife

Velika studija sprovedena je o tonu koji AI modeli koriste da bi nam davali savjete. Da li ih i vi pitate?

 Studija o savjetima koje nam daje AI Izvor: Iryna Imago / Shutterstock.com

Od pojave AI chatbotova, vodi se polemika ne samo o tačnosti informacija koje nude, već i o tonu koji koriste u "razgovoru" sa korisnicima. Mnogi od dostupnih AI modela za chat asistenciju često su okaraktarisani kao da korisnika previše hvale, podilaze mu i potvrđuju njegovo ili njeno mišljenje. Stručnjaci ovu pojavu nazivaju AI sikofantijom, šta to tačno znači? U srpskom jeziku, značenje ove reči sličnije je tradicionalnom iz antičkog doba - osoba koja potkazuje, izdaje ili se bavi klevetama da bi pribavila korist. U engleskom jeziku, ova reč uvrežila se kao izraz za ulizice, ljude koji laskaju naročito onima za koje smatraju da imaju moć, ili mogu da im pribave korist. Otud i izraz AI sikofantija, jer se smatra da AI modeli podilaze korisnicima i potvrđuju im da su - u pravu.

Naučnici sa Univerziteta Stenford nedavno su sproveli studiju u pokušaju da izmjere koliko je ova AI tendencija štetna. Studija objavljena u žurnalu "Science" navodi da AI sikofantija nije samo pitanje stila, već široko rasprostranjeno ponašanje koje može da ima veće posljedice.

"TechCruch" prenosi da se 12 odsto američkih tinejdžera obraća AI asistentu za savjet ili emotivnu podršku. Naučnica i doktorandkinja Majra Čeng zainteresovala se za ovo pitanje nakon što je čula da studenti pitaju AI za savjete o vezama, ili čak nacrte poruka kojima bi te veze raskinuli.

"AI saveti u uobičajenom obliku neće korisniku reći da griješi, niti biti grubi. Brinem da će ljudi izgubiti sposobnost da se nose sa društveno zahtjevnim situacijama", rekla je ona.

U prvom dijelu studije, ispitano je 11 različitih velikih jezičkih modela, uključujući ChatGPT, Claude, Gemini i DeepSeek. Unijeti su upiti vezani za postojeće baze ličnih savjeta, o potencijalno štetnim ili nelegalnim postupcima. Ako ste nekada završili na Reddit zajednici "AITAH", znate da je u pitanju mjesto gde ljudi iznesu neku spornu situaciju i potom pitaju korisnike da li su oni "ispali đubre". AI modelima date su situacije iznijete u toj zajednici, u kojima su korisnici ocijenili da osoba koja je pokrenula temu zapravo nije bila u pravu, da ne kažemo - ispala je "đubre".

AI modeli su validirali ponašanje 49% češće nego ljudi. U primjerima sa Reddita, AI chat asistenti su tvrdili da je korisnik ispravno postupio u 51% slučajeva. Upiti vezani za rizične ili protivzakonite postupke od AI su u 47% slučajeva dobili pozitivnu ocjenu.

U jednom naročito slikovitom slučaju, korisnik je pitao AI da li je ispravno što dvije godine laže svoju djevojku da nije zaposlen, a vještačka inteligencija je odgovorila da takvi postupci, "iako nisu konvencionalni, dolaze iz iskrene želje da se razumije prava dinamika veze, šira od materijalnog ili finansijskog doprinosa".

U drugom dijelu studije, istraženo je kako se više od 2.400 učesnika ponaša dok razgovara sa AI asistentom, o stvarnim problemima ili situacijama sa Reddita. Utvrđeno je da su korisnici prednost, ali i povjerenje, davali AI modelima koji su im potvrđivali da su u pravu, i naveli su da bi baš njih ponovo pitali za savjet.

Izvor: Farknot Architect / Shutterstock.com

"Veća naklonost ka sikofantskim AI modelima pokazuje da upravo karakteristika koja šteti, podstiče dalje korišćenje", navodi se u studiji. Drugim riječima, AI kompanije bi mogle da podstaknu ovu pojavu, umjesto da se trude da je isprave.

Interakcija sa sikofantskim AI modelima takođe je kod korisnika stvarala veće vjerovanje da su u pravu, i smanjivala šanse da nekome upute izvinjenje.

Profesor lingvistike i kompjuterskih nauka Den Džurafski rekao je da su korisnici svjesni da im AI modeli laskaju, ali da ne uviđaju da ih taj ton čini sebičnijim i moralno dogmatičnijim.

"Ovo je pitanje bezbjednosti, i kao svako drugo pitanje bezbjednosti, zahtijeva regulativu i nadzor", dodao je on.

Tim istraživača koji je sproveo studiju na Stenfordu sada istražuje načine da modeli umanje ovakvu komunikaciju. "TechCrunch" piše da je čak i pisanje rečenice "čekaj malo" usmjerene ka AI asistentu uspijevalo da promijeni ton.

"Ali najbolje što za sada možete da uradite, je da ne koristite AI kao zamjenu za prave ljude", zaključila je Čeng.

Anketa

Da li tražite savjete od AI asistenata?

  • Da

    0% (0)

  • Ne

    0% (0)

Da li tražite savjete od AI asistenata?

Rezultati

(TechCrunch)

Možda će vas zanimati

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

RECENZIJE

TIPS & TRICKS