• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

Instagram brže reaguje na snimke seksa nego nasilja: Femicid u Gradačcu pokazao slabosti moderacije društvenih mreža

Autor Vesna Kerkez

Slučaj femicida koji se desio u Gradačcu 11. avgusta pokazao je neefikasnost moderacije sadržaja na društvenim mrežama, naročito u slučajevima emitovanja uživo.

 Zašto je snimak ubistva stajao tri sata online prije skidanja Izvor: Profimedia

Snimak je postavio Nermin Sulejmanović iz Gradačca kada je na svom profilu na Instagramu javno pokrenuo live stream. Snimak ubistva je i nakon emitovanja bio dostupan korisnicima približno tri sata, dok nije uklonjen. U tom periodu snimak su lajkovale, dijelile i komentarisale stotine, možda i hiljade korisnika mreža, piše media.ba.

Korisnici su masovno pozivali na prijavu snimka kako bi bio uklonjen, ali to se nije desilo sve dok nije reagovao ljudski moderator sadržaja. Automatizovana moderacija sadržaja očigledno nije bila dovoljna.

Saša Petrović, inspektor za sajber kriminal Federalne uprave policije (FUP), bio je na godišnjem odmoru kada je dobio informaciju da postoji snimak koji se treba ukloniti.

"Oko 12 časova, ne mogu se sjetiti u minutu, zaprimili smo informaciju da je potrebno ukloniti video snimak sa društvene mreže Instagram. Dvadeset minuta nakon ostvarivanja kontakta sa administratorom Mete snimak je uklonjen. To nismo mogli dok nismo dobili usmeno odobrenje od tužioca Tužilaštva TK", rekao je Petrović za Mediacentar Sarajevo.

Izvor: Fonet/screenshot

Pitanja o potezima koje su poduzeli Ministarstvo unutrašnjih poslova (MUP) Tuzlanskog kantona i Kantonalno tužilaštvo Tuzlanskog kantona i zbog čega se dugo čekalo na odobrenje tužioca smo poslali ovim institucijama ali odgovore do objave ovog teksta nismo još dobili. Prema informacijama koje imamo, zahtjeve za uklanjanje sadržaja slao je i MUP Tuzlanskog kantona ali moderator kompanije Meta, u čijem vlasništvu su Facebook i Instagram, na njih nije reagovao.

"Mi smo bili u komunikaciji sa MUP-om TK, oni su poslali upit prema Meti međutim nije bilo odgovora. Ja sam imao mogućnost da nazovem Metu direktno telefonom, nazvao sam. Tamo je bilo oko 7:30, čovjek koji tamo radi je za par minuta sjeo za sistem, uzeo podatke koji su potrebni i koje mi moramo dostaviti Meti – zašto nam to treba, zašto je to bitno. I za 20 minuta dok je to prošlo, snimak je uklonjen“, kaže Petrović.

Sve ovo govori da mehanizmi Mete, ali i drugih mreža nisu dovoljno dobri i da je potrebno mnogo vremena dok se sadržaji uklone.

FUP, dodaje Petrović, ima odličnu saradnju sa Metom, koja se dnevno suočava sa velikim brojem hitnih zahtjeva za uklanjanje sadržaja.

"Sve policijske agencije u Bosni i Hercegovini (BiH), regionu i svijetu imaju mogućnost pristupa Metinom dijelu platforme koji se odnosi na policijske agencije gdje je jasno propisano postupanje u redovnoj proceduri, načine odgovora i u hitnim slučajevima poput ovog", dodaje Petrović.

Nakon što je dobio odobrenje tužioca, procedura unutar FUP-a, dodaje, nije trajala duže od deset minuta.

Informacijski ekspert i viši asistent na katedri za informacijske nauke Filozofskog fakulteta Univerziteta u Sarajevu Feđa Kulenović za Media.ba kaže da su mehanizmi za uklanjanje sličnih sadržaja efikasni onoliko koliko su to kompanije u mogućnosti da učine efikasnim s obzirom na omjer zaposlenih pogotovo na moderaciji sadržaja.

"Broj članova na svakoj mreži nikako nije dobar i ne odgovara potrebama za moderacijom. Što se tiče konkretnog potresnog slučaja, rekao bih da je tri sata malo s obzirom na sve probleme i činjenicu da je samo Meta otpustila u posljednje vrijeme 20 hiljada radnika. To je dokaz da mehanizmi nisu dovoljno efikasni i da se ništa nije promijenilo od 2019. godine kada smo imali obećanja da će se stvari poboljšati nakon slučaja live streama masovnih rasno motiviranih ubistava u Krajstčurču na Novom Zelandu”, kaže Kulenović.

Algoritmi za prepoznavanje nasilnog sadržaja nedovoljno razvijeni

Činjenica da snimak femicida nije automatski uklonjen pokazuje da automatizovano uklanjanje sadržaja nije dovoljno razvijeno i efikasno.

Koordinatorica istraživanja u Udruženju “Zašto ne” Tijana Cvjetićanin kaže da je u uklanjanju štetnih ili nasilnih sadržaja bitno da postoje ljudski kontakti koji govore lokalni jezik zemlje u kojoj posluju, odnosno u kojoj je sporni snimak objavljen. Bitna je brzina, ali i humani pristup koji može procijeniti šta se dešava.

“Ono što je moj lični utisak je da takva dinamika nije moguća sa algoritmima i automatizovanim procesima. Iako je rad algoritama poslovna tajna online platformi i kao takav je vrlo netransparentan, tako da se ne zna na koji način se određeni sadržaji automatski uklanjaju ili označavaju kao uznemirujući, prilično je jasno da algoritam nije bio u stanju da proceni da je ono što je emitovano u petak ujutru bio jedan strašan, potresan i uznemirujući snimak krivičnog dela ubistva koje se dešavalo uživo”, kaže Cjetićanin.

Jedan od signala za prepoznavanje takvih sadržaja trebalo bi da bude i broj prijava koje dolaze od korisnika. U slučaju snimka iz Gradačca se i to desilo budući da su korisnici mreža pozivali na prijavljivanje sadržaja, ali je on bio i dalje dostupan sve dok inspektori FUP-a nisu zatražili ljudsku reakciju.

"Tri sata je užasno dugo da takav snimak stoji dostupan svima. To znači da su ga za sve to vrijeme mogli gledati i djeca, maloljetnici, ranjive grupe. Tri sata je previše", kaže Cvjetićanin.

Inspektor FUP-a pojašnjava da kompanija Meta ima svoje algoritme koji prepoznaju štetan sadržaj, ali su ti algoritmi više razvijeni za seksualno eksplicitni sadržaj, nego za ovakav nasilan.

"Imaju svoje moderatore koji rade zahtjeve i ručnu pretragu. Sad koliko ima korisnika Meta i koliko se to može pratiti. Mi imamo mehanizme za zaštitu djece i mehanizme za postupanje u ovim slučajevima. Ali nemamo algoritme odnosno softvere koji bi mogli prepoznati ovakav sadržaj. Vrlo teško je i programirati, napisati program za takve sadržaje. Može se za seksualno eksplicitne, veći dio fotografije je nago tijelo i slično, ali za nasilan sadržaj je jako teško automatizovati taj proces. Više je ručni nego automatski“, govori Petrović.

Kulenović s druge strane vjeruje da je automatizacija ovih procesa precijenjena i pokazuje se kao nemoguća s obzirom da postoji čitav niz izuzetaka.

“U situacijama kada govorimo o prikazivanju nasilja u umjetnosti ili istorijskih događaja koji su izazivali proteste zbog cenzurisanja na ovim, što je važno reći, prostorima u privatnom vlasništvu”, kazao je.

Upitan da li mreže imaju dovoljno uposlenika koji bi reagovali u slučajevima kontaktiranja, prijava i sličnih radnji koje nisu automatizovane, Kulenović odgovara:

“Kratko i jasno - nemaju. Meta upravlja vjerovatno sa najviše korisnika na svoje tri mreže, sada sa Threads četiri. Na milijarde korisnika dolazi otprilike ukupno 60.000 zaposlenih od kojih se vrlo mali broj bavi moderacijom. Pokušaj automatizacije ovih procesa izaziva mnogo problema koje Meta rješava nekada brzo a nekada sporije, ali su svi ti algoritmi jako 'osjetljivi' i reaguju na male situacije teksta (koji je mnogo lakše moderirati automatski) dok na live video nemaju velikog uticaja osim ako neko u naslov ne doda neku riječ koja će pokrenuti sistem”, govori Kulenović.

Kaže da automatsko ukidanje ovakvog sadržaja ima efekta u situacijama kada dođe do masovnog prijavljivanja sadržaja, ali s obzirom da se ovakve situacije mogu upotrijebiti i za gušenje slobode izražavanja postaje više nego očigledno da to nisu efikasna rješenja.

"Ipak, moram reći da se ovdje radi o situacijama koje je bez ozbiljnog upliva u narušavanje privatnosti i kreiranja potpuno pogrešnih rješenja nije moguće efikasno riješiti. Sva rješenja koja bi postojala bi sigurno napravila više štete nego koristi. Čini mi se da je jedino rješenje da počnemo preispitivati naš odnos sa ovim mrežama i njihovim privatnim prostorima", smatra Kulenović.

Izvor: @Mehaniq via Twenty20

TikTok i Telegram najneodgovornije mreže

Nasilan i uznemirujući sadržaj može ostaviti brojne posljedice i traumatska iskustva za hiljade korisnika, ali i potaći pojedince da čine slična djela.

Dodatni problem jeste i brzina širenja takvog sadržaja. Tokom tri sata dok je bio dostupan na mrežama korisnici su preuzimali snimak i postavljali ga online, bilo na Metine platforme, gdje su nakon inicijalne reakcije ipak bivali brže uklonjeni, ili na mreže poput TikToka i Telegrama.

“To su platforme koje imaju standardno lošije mehanizme za reakciju na takve stvari, što smo mogli videti i na nedavnom primjeru masovnog ubistva u školi Vladislav Ribnikar. Tada su, veoma neodgovorno, brojni mediji u regiji objavljivali ime i prezime, slike i snimke na kojima se videlo lice maloletnog počinitelja višestrukog ubistva. Takvi su materijali zatim iskorišteni, recimo, na TikToku, gde je veliki broj uglavnom tinejdžera i adolescenata - i to ne odavde nego i iz raznih udaljenih krajeva sveta - napravio profile koji su izgledali doslovno kao klubovi obožavatelja nekoga ko je izvršio višestruko ubistvo”, govori Tijana Cvjetićanin.

Dijelovi drugog live snimka, koje je Sulejmović postavio a u kojem govori o zločinu koje je počinio, i dalje su dostupni na TikToku, a snimak ubistva dostupan je na Telegramu. U Telegram grupi „LEVIJATAN –Bez cenzure“ necenzurisani snimak ubistva pogledalo je blizu 80.000 osoba.

Telegram i TikTok su mreže sa kojima je saradnja teža i policijskim agencijama.

"Ta saradnja ide teže nego sa Metom, ali funkcioniše. Sa TikTokom funkcioniše, ali mnogo teže nego sa Metom. Sa Telegramom je vrlo teško", kaže za Media.ba inspektor Saša Petrović.

Kulenović kaže kako su aplikacije za masovno mrežno komuniciranje kao što je Telegram, WhatsApp i Viber veoma loše u moderaciji sadražaja. WhatsApp je, govori, bolji jer je u vlasništvu Mete, ali to ne znači da je odličan.

“Oni su naprosto morali reagovati na neke situacije u svijetu gdje je WhatsApp bio u centru širenja dezinformacija i poticanja na nasilje. Telegram je loš. Prije svega njihov proces prijavljivanja je po mom mišnjenju skoro pa nepostojeći. Kada prijavite neku objavu u nekoj opskurnoj grupi ne dobijate nikakav feedback, a materijal ostaje dostupan i dalje. TikTok je isto tako loš po ovom pitanju”, govori Kulenović.

Dodaje da kompanije ne ulažu dovoljno resursa u moderaciju, ali da je i efikasna moderacija sadržaja u određenim slučajevima jednostavno nemoguća, osim ako se ne uđe u ozbiljno ograničavanje slobode govora što kompanije ne žele, ne zbog zaštite slobode govore, već jer bi se na taj način gubili korisnici a time i novac.

(MONDO)

Još iz INFO

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

MONDO REPORTAŽE