• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

O ovih 5 stvari nikada i nipošto ne treba da pitate ChatGPT!

Autor Miloš B. Jovanović

Lični podaci podijeljni sa AI chatbot-ovima mogu biti zloupotrijebljeni, najviše zbog toga što mogu da se nađu među podacima koji se koriste za treniranje vještačke inteligencije

 Šta ne treba pitati ChatGPT Izvor: Pixabay

Vještačka inteligencija je sve više prisutna u našim životima i svakim danom se sve više koristi, a popularnost AI chatbot aplikacija, kakve su ChatGPT i Google Gemini, stalno raste.

Ovi chatbot-ovi ljudima su privlačni zbog svoje sposobnosti da, na postavljena pitanja, generišu odgovore veoma bliske ljudskoj komunikaciji.

Međutim, njihovo oslanjanje na velike jezične modele (LLM) nije bez rizika, pa je važno razumijeti da neke podatke i informacije nikada ne bi trebalo dijeliti sa AI chatbot-ovima.

Naime, lični podaci korisnika podeljni sa AI chatbot-ovima mogu biti otkriveni i zloupotrebljeni, pre svega, zbog toga što se mogu se naći među podacima koji se koriste za treniranje drugih AI botova. Do njih tada mogu da dođu i kod kompanije koji stoje iz ovih AI alata i njihovih partnera, kao i hakeri, ako provale u sistem.

Izvor: Shutterstock

Zato, ovih 5 vrsta podataka nikada ne bi trebalo da dijelite sa vještačkom inteligencijom:

1. Podaci o finansijama

Ako AI chatbot-ove koristite kao lične finansijske savjetnike, rizikujete da informacije o svojim finansijama izložite sajber kriminalcima koji bi to mogli da iskoriste da isprazne vaše račune ili da ih zloupotrebe za druge vrste prevara.

Uprkos tome što kompanije često tvrde da su podaci iz konverzacije korisnika i AI-ja anonimni, neki zaposleni u tim kompanijama ili njihovi partneri treće strane bi i dalje mogli da imaju pristup njima.

Chatbot bi, na primjer, mogao da analizira potrošačke navike korisnika da bi mu ponudio savjete, ali ako tim podacima neko pristupi neovlašćeno, oni bi mogli biti zloupotrebljeni da onoga čiji su profilišu kao prevaranta, npr. da budu iskorišćeni za phishing imejlove koje imitiraju vašu banku.

Izvor: Shutterstock

2. Šifre

Dijeljenje lozinki različitih naloga na internetu je generalno rizično, na šta stručnjaci za sajber bezbjednost stalno upozoravaju. Isto važi i za velike jezične modele na kojima se AI chatbot-ovi zasnovani, pa se takvim potezom izlažete velikim rizicima.

Zato, da biste se zaštitili, šifre svojih onlajn naloga nikada ne delite sa chatbot-ovima, čak ni kada bi to moglo da bude u svrhu rješavanja nekog problema.

Izvor: Shutterstock

3. Povjerljive informacije o radnom mestu

Tehnološki giganti Apple, Samsung i Google svojim zaposlenima su ograničili upotrebu AI chatbot-ova na radnom mjestu, nakon što su te kompanije primjetile slučajeve nenamjernog objavljivanja osjetljivih informacija u komunikaciji sa vještačkom inteligencijom.

Tako je jedan programer u Samsungu koristio ChatGPT kao pomoć u kodiranju i time nehotice podelio osjetljiv kod sa generativnim AI-jem. Mnogi zaposleni se oslanjaju na chatbot-ove da bi sumirali zaključke poslovnih sastanaka ili automatizuju repetitivne zadatke koji se ponavljaju, ali time ulaze u rizik od izlaganja osjetljivih podataka.

Zbog svega toga, veoma je važno voditi računa o rizicima vezanim za deljenje podataka u vezani sa poslom, ističe MakeUseOf.

Nezadovoljni zaposleni
Izvor: Shutterstock / Roschetzky Photography

4. Adresa i drugi lični podaci

Osjetljivi lični podaci kao što su adresa i mjesto stanovanja, datum rođenja, matični broj ili podaci o zdravlju, mogu biti iskorišćeni za identifikaciju i lociranje njihovog vlasnika, pa ih je zato potrebno zadržati za sebe uvijek kada je to moguće.

Zato je potrebno upoznati se sa pravilima privatnosti chatbot-a da bi se razumjeli rizici. Zato izbegavajte postavljanje pitanja koja nenamjerno mogu da otkriju identitet i/ili lične podatke. Budite posebno oprezni i uzdržite se od dijeljenja medicinskih podataka.

Izvor: Pixabay

5. Lično stanje i intimne misli

AI chatbot-ovi možda mogu da budu dobri sagovornici, ali im nedostaje znanje o stvarnom svijetu, zato na npr. pitanja o (mentalnom) zdravlju mogu da ponude samo generičke odgovore. To znači da lekovi ili tretmani koje predlažu možda nisu adekvatni za specifične potrebe korisnika i da mogu da budu štetni po zdravlje.

To takođe važi i za upozorenja u vezi sa zaštitom privatnosti. Ako se neko zlonamera dokopa vaših intimnih misli, vaša privatnost može biti kompromitovana, a intimne misli iskorišćene kao podaci za treniranje vještačke inteligencije.

Zbog svega toga AI chatbot-ove treba koristiti za razmenu opštih informacija i znanja, i od njih ne očekivati profesionalnu podršku ili terapiju.

(MONDO)

Možda će vas zanimati

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

RECENZIJE

TIPS & TRICKS