Šah-mat

YouTube blokirao popularnog šahistu iz Hrvatske zbog nesporazuma

Autor Vesna Kerkez

I tehnologija zna nekada žestoko da pogriješi.

Izvor: YouTube/ Printscreen/ MasterClass

Nova serija "The Queen's Gambit"  sa striming platforme Netflix je ponovo popularizovala šah, iako je ova igra vanvremenski klasik.

Da i dalje postoji interesovanje za ovu igru nastalu prije dvije hiljade godina, najbolje pokazuje njena zastupljenost na internetu.

Tako i jedan hrvatski jutjuber ima preko milion pratilaca koji redovno gledaju turnire u ovom sportu i to upravo na njegovom kanalu. Antonio Radić, na toj platformi poznatiji kao Agadmator je 28. juna 2020. godine doživio neprijatno iskustvo i to od strane YouTube platforme.

On je dobio zabranu korišćenja YouTube-a, a da nije dobio obrazloženje zašto se to dogodilo. Na kraju se ispostavilo da je došlo do jedne velike greške, te da je Radić nepravedno optužen za rasizam. Naime, sistem moderacije YouTube platforme je takav da se oslanja na AI algoritam, to jest na vještačku inteligenciju.

Taj AI je "pobrkao lončiće", te je zabilježio kako ovaj jutjuber priča o "crnim protiv bijelih", te kako će "bijeli napasti crne" i druge slične izraze koji mogu da djeluju rasistički kada nemaju kontekst. Kako je u pitanju šah, jasno je da se ovdje govori o figurama i potezima, a ne o rasizmu.

Zbog ovog problema su naučnici sa Univerziteta Carnegie Mellon počeli da istražuju ovaj propust vještačke inteligencije koja je popularne šahovske kanale kažnjavala zbog "štetnog i opasnog" sadržaja. "Ukoliko koriste vještačku inteligenciju kako bi otkrili rasistički govor, ovakve nezgode mogu da se dogode" - rekao je Ašikir KudaBukšk, naučnik sa CMU, prenosi The Independent.

On je testirao tu teoriju koristeći najsavremeniji klasifikator govora, a sve kako bi prikazao više od 680.000 komentara prikupljenih sa pet popularnih kanala čiji je fokus na šahu. Nakon što je manuelno pregledao 1.000 komentara koje je vještačka inteligencija izdvojila kao "govor mržnje", rezultat je otkrio da je 82% tih komentara pogrešno klasifikovan kao uvredljiv, zbog upotrebe riječi crno, bijelo, napad i prijetnja. Treba dodati da je ovaj problem uveliko riješen, te da je Agadmator nastavio sa svojim radom. 

Tek ovog mjeseca je ovo istraživanje predstavljeno na godišnjoj konferenciji Udruženja za unapređenje AI.

(MONDO)