• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

Prva prijava protiv "DEEPFAKE" snimka u RS: Fotošop je prošlost, dobro došli u doba novih manipulacija

 Željko Svitlica
Autor Željko Svitlica

Recite zbogom fotošopu, montiranim fotografijama i video snimcima, dolazi novo vrijeme i nove tehnike manipulacije koje će biti sve teže raskrinkati i prepoznati.

 kolaž, političari, ai, umjetna inteligencija Izvor: TikTok, Mondo/Shutterstock, Dejan Škrapina - Instagram

Služba predsjednika Republike Srpske prijavila je Ministarstvu unutrašnjih poslova (MUP RS) snimak koji se pojavio na društvenim mrežama, a za koji se vjeruje da je napravljen pomoći vještačke inteligencije.

Na digitalnom snimku, predsjednik Republike Milorad Dodik drži govor ali je njegov glas je izmanipulisan tako da izgovara nešto što nije stvarno rekao.

Ova prijava iznijela je na vidjelo da smo zvanično ušli u eru političkih manipulacija pomoću vještačke inteligencije i u doba lažnih informacija novog tipa, koje se zbirno nazivaju "deepfake" (dipfejk).

Nagli ulazak naprednih tehnologija vještačke inteligencije u internet prostor koji je dostupan svima (simbolično je počeo pojavom Chat GPT-a) i trka velikih IT kompanija u razvoju ovih tehnologija koja je uslijedila, stvorili su mogućnost da alati za deepfake manipulaciju budu široko dostupni.

Povezano

Lažni video ili audio snimak i fotografiju, koje mogu da izgledaju manje ili više uvjerljivo, a na kojima se nalazi poznata ličnost može da napravi svako ko ima elementarne vještine i znanja u potrebnim programima.

Borislav Vukojević, viši asistent na Fakultetu političkih nauka u Banjaluci, koji se aktivno bavi praćenjem razvoja alata vještačke inteligencije, kaže da deepfake nije nikakva nova tehnologija i da pažnju privlači već godinama, ali da je pristupačnost generativne vještačke inteligencije stvorila lakšu dostupnost ove tehologije svakom čovjeku.

"Da ste htjeli da prije godinu dana da pravite deepfake video ili deepfake audio trebalo bi vam mnogo novca, znanja i vremena. To nije bilo za svakoga i to su mogli iskorištavati i zloupotrebljavati samo oni koji su imali resurse za to pa nije privlačilo toliku pažnju. Generativna vještačka inteligencija je dovela do toga da preko besplatnih alata možete da kreirate, pa, gotovo identične glasove i gotovo identične digitalne avatare (slike-likove)", objasnio je Vukojević za Mondo.

Javlja se mogućnost za čestu i veliku zloupotrebu ovako dostupne tehnologije. Vukojević slikovito objašnjava da je potrebno između tri i 30 sekundi snimka pravog glasa - možete ga snimiti sa televizije, sa jutjuba ili iz bilo kojeg izvora - na osnovu čega možete napraviti gotovo identičnu kopiju.

"Sa besplatnim alatima možete da napravite kopiju vjernosti od 70 do 80 odsto. Sa nešto skupljim alatima, za 1.000 do 2.000 evra, možete da napraviti digitalni avatar i glas koji izgleda identično kao pravi".

Ograničavajući faktor je što platforme koje nude profesionalne alate, upravo kako bi spriječili zloupotrebe, zahtijevaju pisanu saglasnost osobe koja se snima i koja šalje svoj glas.

"Dakle, za napredniji sistem potrebno je mnogo novca i mnogo znanja, a ovaj manje napredan, pojedinac može uraditi bez nekog pretjeranog znanja. Nama kao publici ide u prilog što takav deepfake može lako da se raskrinka", dodaje Vukojević.

Ako govorimo o primjeni u političkim kampanjama, stručnjak misli da će manipulatori sigurno moći da prevare dio publike ali ne i one koji bar malo analiziraju i promišljaju o onome što čitaju ili gledaju.

Međutim, ako pogledamo stanje stvari i bez "dipfejka", na različite vrste manipulacija nasjedaju ne samo obični (ili neupućeni) čitaoci već i ljudi kojima je bezbjednost informacija u opisu posla.

Ministar bezbjednosti u Savjetu ministara BiH Nenad Nešić u četvrtak je na mreži X (Tviter) podijelio lažnu fotografiju na kojoj je Vijećnica u Sarajevu "obojena" u zastavu samoproglašene države "Kosovo" koju BiH ne priznaje. Vijest o tome prenijela je novinska agencija Srna.

Satirični tekst o tome kako je donijeta naredba da u institucijama Republike Srpske budu postavljene slike Milorada Dodika, mnogi su dijelili vjerujući da se radi o stvarnoj vijesti.

Dokument koji je prema tvrdnjama iz prošle godine "procurio" iz Vašingtona
Izvor: Portal "Glas naroda"

Uoči izbora prošle godine mediji koji u Republici Srpskoj drže stranu vlasti objavili su navodni dokument američke vlade u kojem piše da je kandidat opozicije za predsjednika RS Jelena Trivić dobila 10 miliona dolara - u kešu i da je novac dostavljen avionom. Niko se kasnije nije ni potrudio da pojasni, demantuje, ili se izvini zbog plasiranja takvih informacija u javnost.

Izborna godina tek dolazi i možemo samo pretpostaviti šta će u svojim štabovima i odjeljenjima za internet kampanje spakovati politički protivnici jedni drugima pomoću novih tehnoloških oružja.

Poplava "dipfejka" u SAD i strahovi u EU

Sličan strah vlada i u Sjedinjenim Američkim Državama gdje je "dipfejk" već zavladao kao oružje u ratu koji se vodi u veoma polarizovanoj američkoj politici. Politički advokati u Vašingtonu spremaju se izborni ciklus koji će, u nedostatku regulacije, donijeti novu generaciju političkih oglasa i raznovrsnih napada na političke protivnike uz pomoć veštačke inteligencije i lažnih snimaka.

Do juna ove godine u SAD je bilo tri puta više video-fejkova svih vrsta i osam puta više audio (glasovnih) deziformacija objavljenih na mrežama u poređenju sa istim vremenskim periodom 2022. godine, po podacima organizacijeDeepMedia, koja radi na alatima za otkrivanje, kako su ih u Americi nazvali - sintetičkih medija.

Trump i Bajden AI intervju - dipfejk
Izvor: YouTube

DeepMedia na glavnoj stranici svog sajta upravo ima dobar primjer kvalitetno napravljenog "dipfejk" videa u kojem Džo Bajden, predsjednik SAD, "izgovara" čime se ova kompanija bavi.

U Evropskoj uniji, gdje se o regulaciji vodi mnogo više računa, upozoreno je da je potrebno učiniti više kako bi se spriječili rizici koji nastaju zbog dostupnosti generativnih alata vještačke inteligencije. Pogotovo jer predstoje izbori za novi saziv Evropskog parlamenta sljedeće godine.

Potencijal veoma realističnih, sintetičkih AI proizvoda za stvaranje i širenje dezinformacija je ogroman, a očekuje se da EU AI Act koji je u nastajanju, pokuša da zaštiti građane od talasa manipulacije.

(MONDO)

Još iz INFO

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

MONDO REPORTAŽE