- Hronika
- Kolumne
-
Radio
- Izdvajamo
-
Emisije
- Dokumentarni program
- Pop top
- Europuls
- Zrno po zrno
- Radio ordinacija
- Kulturna panorama
- Zelena priča
- Epoleta
- +382
- Spona
- Svijet jednakih šansi
- Matica
- Život po mjeri čovjeka
- Link
- Izokrenuti svijet
- Koracima mladih
- Moja profesija je...
- Sportski program
- Kulturno-umjetnički program
- Muzički program
- Koracima prošlosti
- Naučno-obrazovni program
- RCG
- R98
- Programska šema
- Trofej Radija Crne Gore
- Frekvencije
- Radio drama
20. 05. 2025. 08:56
Čitaj mi:
Hej @Grok, koliko je pouzdana vještačka inteligencija?
Firma Ilona Maska xAI je novembra 2023. ga tržište izbacila generativni četbot Grok, a slobodan pristup omogućila je svima od decembra 2024. Od tada hiljade korisnika društvene platforme Iks postavljaju pitanje: @Grok, da li je ovo tačno? Tako žele da uz pomoć vještačke inteligencije provjere neke informacije.
Nedavno je britanski portal TechRadar sproveo anketu koja je pokazala da 27 odsto Amerikanaca koriste alate vještačke inteligencije kao što su ChatGPT, MetaAI Gemini ili Copilot. Sve popularnije su i aplikacije kao što je Perplexity koje se koriste umjesto poznatih pretraživača interneta.
Ipak, postavlja se pitanje da li su odgovori na postavljena pitanja uvijek tačni i da li su četbotovi pouzdani? Debata o tome se razvila kada je Grok počeo da šalje informacije o „bijelom genocidu“ u Južnoj Africi čak i kada bi mu bila postavljena sasvim druga pitanja.
Diskusija o „genocidu nad bijelcima" se pojavila kada je Trampova administracija dovela bijele Južnoafrikance u SAD kao „izbjeglice“. Američki predsjednik Tramp je izjavio da su oni u njihovoj zemlji izloženi „genocidu“. Za tu tvrdnju ne postoje dokazi. Maskova firma xAI je krivicu za opsjednutost četbota Grok temom „bijeli genocid" i za odgovore na nepostavljena pitanja pripisala „neautorizovanoj izjavi“. U saopštenju se navodi da je sprovedeno „temeljno istraživanje“.
Da li se takve greške pojavljuju redovno? Da li korisnici mogu da budu sigurni, da dobijaju pouzdane informacije?
Istraživanje otkriva činjenične greške i falsifikovane citate
Dvije studije koje su urađene za britanski javni medijski servis BBC i Centar za digitalno novinarstvo njujorškog Univerziteta Kolumbija ustanovile su velike manjkavosti četbotova. U februaru je u istraživanju za BBC konstatovano da odgovori pokazuju „znatne netačnosti i iskrivljenu sadržinu.
Na zahtjev da predstave aktuelne vijesti i da koriste BBC kao izvor, ChatGPT, Copilot, Gemini i Perplexity su čak u 51 odsto odgovora imali „znatne probleme različite vrste“.
U 19 odsto odgovora su pridodate činjenične greške, a 13 odsto citata je promijenjeno ili izbačeno.
Zaključak Pita Arčera, programskog direktora za generativnu vještačku inteligenciju na BBC-ju je da se trenutno kod četbota vještačke inteligencije „ne može pouzdati u to da će korektno prenijeti vijesti i postoji opasnost da će publiku dovesti u zabludu“.
I istraživanje koje je sprovedeno na Univerzitetu Kolumbija, objavljeno u martu, kaže da osam alata vještačke inteligencije nisu bili u stanju u 60 odsto slučajeva da korektno odrede porijeklo odlomaka iz tekstova.
Perplexity ima procenat grešaka „samo“ 37 odsto, dok je kod Groka čak 94 odsto pogrešnih odgovora. U istraživanju se navodi da je „alarmantna pouzdanost“ s kojom ovi četbotovi daju pogrešne odgovore. Studija je ustanovila da je opšta slabost četbotova to što su loši u „odbijanju da odgovore na pitanja na koja ne mogu tačno da odgovore“.
Četbotovi su dobri koliko i njihov input
Četbotovi crpe svoje podatke iz različitih izvora u bankama podataka i u digitalnoj mreži. U zavisnosti od toga koliko su uvježbani, kvalitet odgovora može da varira. „Nedavno se pojavio problem poplave LLLM-a [opaska redakcije: Large Language Models] koju izazivaju ruske dezinformacije i propaganda“, kaže Tomazo Kaneta, koordinator za provjeru činjenica Evropske opservatorije digitalnih medija (European Digital Media Observatory, EDMO). „Ako izvori nisu vjerodostojni i visoko kvalitetni, onda vjerovatno ni odgovori neće biti drugačiji", kaže on. Kaneta objašnjava da i on lično često dobija odgovore koji su „nepotpuni, neprecizni, zbunjujući ili čak pogrešni“.
Kad vještačka inteligencija pogriješi
Četbot Meta AI je aprila 2024. jednoj čet grupi njujorških roditelja saopštio da ima akademski talentovano dijete ometeno u razvoju. Četbot je kasnije uputio izvinjenje jer „nema lično iskustvo ili djecu“. Ovo je saopštila kompanija Meta medijima koji su izvijestili o događaju. „Radi se o novoj tehnologiji, koja možda ne isporučuje uvijek željene odgovore. Od izlaska na tržište, stalno smo usavršavali naše modele i radimo dalje na tome da ih poboljšamo“, navodi se u saopštenju.
Pogrešne informacije mogle bi da imaju teške posljedice. Avgusta 2024. je Grok tvrdio da Kamala Haris, koja je preuzela kandidaturu za predsjednika SAD-a nakon povlačenja Džoa Bajdena, u nekim američkim državama ne smije da bude na izbornim listićima. To je naravno bila pogrešna informacija. Državni sekretar Minesote Stiv Sajmon reagovao je otvorenim pismom Ilonu Masku.
Grok pripisuje vještačku sliku realnim događajima
Očito su ograničenja velika i u identifikaciji sadržaja koje je proizvela vještačka inteligencija. Na pitanje o datumu i porijeklu fotografije koju je proizvela vještačka inteligencija za jedan video sa požarom u hangaru na TikToku, Grok je odgovorio da se vide različiti incidenti na aerodromima u engleskom Salsberiju, u Koloradu i u Vijetnamu.
Na tim mjestima jeste bilo požara i nesreća u nekoliko posljednjih godina, ali fotografija nije pokazivala ni jedno od njih. Još veću zabrinutost izaziva to što je Grok prepoznao oznaku TikToka na fotografiji i konstatovao da to govori o „autentičnosti fotografije“.
Međutim, kada se klikne na „detaljnije“ onda Grok kaže da je TikTok platforma koja služi sa širenje viralnih sadržaja što „može da dovede do pogrešnih informacija, ako ne preispitaju u skladu sa pravilima“.
Isto tako je Grok 14. maja potvrdio navodnu autentičnost videa koji je prikazivao anakondu dugačku nekoliko stotina metara. I to je bilo djelo vještačke inteligencije.
Četbotovi nisu dobri za provjeru činjenica
Četbotovi vještačke inteligencije nisu sveznajući. Oni griješe, izvode pogrešne zaključke, a moguće je čak i da se njima manipuliše. Filiks Sajmon koji pohađa postdoktorske studije vještačke inteligencije i digitalnih vijesti na Oksfordskom internet institutu (OII), zaključuje: „Sistemi vještačke inteligencije kao što su Grok, Meta AI ili ChatGPT ne smiju da se posmatraju kao alati za provjeru činjenica. Oni doduše mogu sa izvjesnim uspjehom da se upotrebe za to, ali nije jasno koliko dobro i konzistentno ispunjavaju taj zadatak, naročito u graničnim slučajevima“.
Za Tomaza Kanetu četbotovi su korisni samo za veoma jednostavne zadatke. Ali savjetuje da mu se ne vjeruje u potpunosti. Oba stručnjaka savjetuju korisnicima, da odgovore uvijek uporede sa drugim izvorima.
*ovaj članak je najprije objavljen na njemačkom jeziku