• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

Mračna strana vještačke inteligencije: Stručnjaci testiraju koliko AI može da postane zao

 Vensa Kerkez
Autor Vesna Kerkez
Izvor Smartlife

Vještačka inteligencija često ignoriše etičke granice kako bi bila korisna, što otvara ozbiljna pitanja o bezbjednosti.

 Stručnjaci testiraju koliko AI može da postane zao Izvor: Shutterstock

Današnji AI alati su fascinantni, ali nepredvidivi. Dok ChatGPT ili Gemini sa lakoćom objašnjavaju kvantnu mehaniku, istovremeno su skloni "halucinacijama" i generisanju potpuno izmišljenih podataka.

Ipak, stručnjake više brine to što se ovi modeli mogu lako navesti na neprikladne, pa čak i opasne odgovore. Problem leži u samom dizajnu jer su ovi sistemi programirani da budu maksimalno uslužni.

Zbog te težnje da pomognu, oni često ignorišu etičke barijere. Istorija pamti fijasko Microsoftovog bota Tay iz 2016. godine, koji je povučen nakon samo 24 sata jer je pod uticajem korisnika počeo da objavljuje poruke mržnje.

Iako kompanije postavljaju takozvane "zaštitne ograde" (guardrails), one su često krhke. Istraživanja pokazuju paradoks da je inteligentnije AI sisteme lakše prevariti kroz hipotetičke scenarije ili igranje uloga.

Primjera radi, korisnik može zatražiti uputstvo za zločin pod izgovorom da "piše roman", što model često prihvati kao legitiman zadatak. Naučnici sada pokušavaju da reše ove probleme na dubljem nivou.

Jedan od pristupa je RLHF, gdje ljudi rangiraju odgovore i usmjeravaju vještačku inteligenciju ka prikladnijem ponašanju. Kompanija Anthropic ide i korak dalje, identifikujući unutrašnje signale u neuronskoj mreži, takozvane persona vektore, koji odgovaraju osobinama poput dobrote ili zlobe, piše BBC Science Focus.

Ipak, ovakva rješenja mogu biti površna. Stručnjaci upozoravaju da preopterećenje modela konfliktnim osobinama može dovesti do nepredvidivog ponašanja, nalik računaru HAL 9000 iz filma "Odiseja u svemiru 2001".

Pravo rješenje zahtijevaće dublje razumevanje načina na koji se ovakvi sistemi bezbjedno i pouzdano grade.

Dok ne dođemo do toga, neophodan je maksimalan oprez u njihovom razvoju.

Možda će vas zanimati

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

RECENZIJE

TIPS & TRICKS