• Izdanje: Potvrdi
Čitaoci reporteri

ČITAOCI REPORTERI

Videli ste nešto zanimljivo?

Ubacite video ili foto

Možete da ubacite do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspješno poslata

Hvala što ste poslali vijest.

Dodatno
Izdanje: Potvrdi

Ukucajte željeni termin u pretragu i pritisnite ENTER

Kineski AI vjeruje da je ChatGPT: Vještačka inteligencija sa krizom identiteta

 vesna.jpg
Autor Vesna Kerkez

Obučavanje AI modela na rezultatima konkurentskih sistema vještačke inteligencije može biti "veoma loše" za kvalitet tog modela, jer može da dovede do "halucinacija i obmanjujućih odgovora" kakve daje DeepSeek

 Kineski AI vjeruje da je ChatGPT vještačka inteligencija Izvor: Pixabay

Nedavno lansirani kineski "otvoreni" model generativna vještačka inteligencija (AI) – DeepSeek, nadmašuje mnoge konkurentske AI modele u brojnim popularnim testovima (kao što su pisanje članaka i eseja ili programiranje), ali ima i jednu zanimljivu osobinu!

DeepSeek, naime — misli da je ChatGPT! On, takođe, navodi kom izdanju pripada, i kaže da je verzija GPT-4 objavljena 2023. godine.

Ove zanimljive tvrdnje kineske vještačke inteligencije, kao što to obično biva, brzo su se proširile društvenim mrežama, pa su joj brojni postovi posvećeni na platformama X i Reddit.

Autori DeepSeek-a nisu objavili informacije o obuci svog AI modela. U odgovoru na pitanje kako i zašto se to događa, TechCrunch navodi da su oba modela — i ChatGPT i DeepSeek V3 — statični sistemi koji uče iz milijardi primjera i obrazaca kako bi mogli da predvide tekst koji će generisati. U tome idu do takvih detalja kao što je određivanje mjesta za postavljanje zareza u rečenici.

Izvor: Printscreen / deepseek

Takođe, na internetu postoji ogroman broj javno dostupnih tekstualnih skupova podataka koje je kreirao GPT-4 posredstvom ChatGPT-a, tako da je sasvim moguće da je te iste skupove koristio i DeepSeek, zbog čega sada bukvalno identično reprodukuje odgovore na upite.

"Očigledno je da model dobija sirove odgovore od ChatGPT-a, ali nije jasno odakle tačno oni dolaze. To bi moglo da se dešava 'slučajno'... Ali, već smo viđali slučajeve u kojima su ljudi svoje modele obučavali na podacima drugih modela, kako bi pokušali da iskoriste to znanje", objašnjava Majk Kuk, stručnjak za vještačku inteligenciju i istraživač na Kings koledžu u Londonu.

Praksa obučavanja modela na rezultatima konkurentskih sistema vještačke inteligencije može biti "veoma loša" za kvalitet tog modela, smatra on, jer može da dovede do "halucinacija i obmanjujućih odgovora", kakvi su oni koji daje DeepSeek.

"To je kao fotokopija (koja je bljeđa od originala). Gubi se sve više informacija i veze sa stvarnošću", dodaje Kuk.

Izvor: Shutterstock

To takođe može biti u suprotnosti sa uslovima korišćenja ovih sistema. Pravila OpenAI-a, tvorca ChatGPT-a, zabranjuju korisnicima tog generativnog AI modela da koriste rezultate dobijene od njega za razvoj drugih modela koji mogu da budu konkurentni sistemima OpenAI-a.

Nijedna od kompanija nije odgovorila na pitanja novinara o ovom slučaju, ali je šef OpenAI-ja Sem Altman na X-u tim povodom napisao da je "relativno lako kopirati ono što znate da već funkcioniše", kao i da je "izuzetno teško uraditi nešto novo i rizično, kada ne znate kakav će biti ishod".

A da DeepSeek V3 nije ni prvi, ni jedini, AI model "sa krizom identiteta" pokazuje primjer Google Gemini-ja, koji je na upit postavljen na kineskom jeziku odgovorio da je on chatbot Wenxinyiyan, kineske kompanije Baidu.

(MONDO/SmartLife)

Možda će vas zanimati

Komentari 0

Komentar je uspješno poslat.

Vaš komentar je proslijeđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspjelo.

Nevalidna CAPTCHA

RECENZIJE

TIPS & TRICKS