- Hronika
- Kolumne
-
Radio
- Izdvajamo
-
Emisije
- Dokumentarni program
- Pop top
- Europuls
- Zrno po zrno
- Radio ordinacija
- Kulturna panorama
- Zelena priča
- Epoleta
- +382
- Spona
- Svijet jednakih šansi
- Matica
- Život po mjeri čovjeka
- Link
- Izokrenuti svijet
- Koracima mladih
- Moja profesija je...
- Sportski program
- Kulturno-umjetnički program
- Muzički program
- Koracima prošlosti
- Naučno-obrazovni program
- RCG
- R98
- Programska šema
- Trofej Radija Crne Gore
- Frekvencije
- Radio drama
20. 05. 2025. 08:56
Hej @Grok, koliko je pouzdana veštačka inteligencija?

Firma Ilona Maska xAI je novembra 2023. ga tržište izbacila generativni četbot Grok, a slobodan pristup omogućila je svima od decembra 2024. Od tada hiljade korisnika društvene platforme Iks postavljaju pitanje: @Grok, da li je ovo tačno? Tako žele da uz pomoć veštače inteligencije provere neke informacije.
Nedavno je britanski portal TechRadar sproveo anketu koja je pokazala da 27 odsto Amerikanaca koriste alate veštačke inteligencije kao što su ChatGPT, MetaAI Gemini ili Copilot. Sve popularnije su i aplikacije kao što je Perplexity koje se koriste umesto poznatih pretraživača interneta.
Ipak, postavlja se pitanje da li su odgovori na postavljena pitanja uvek tačni i da li su četbotovi pouzdani? Debata o tome se razvila kada je Grok počeo da šalje informacije o „belom genocidu“ u Južnoj Africi čak i kada bi mu bila postavljena sasvim druga pitanja.
Diskusija o „genocidu nad belcima" se pojavila kada je Trampova administracija dovela bele Južnoafrikance u SAD kao „izbeglice“. Američki predsednik Tramp je izjavio da su oni u njihovoj zemlji izloženi „genocidu“. Za tu tvrdnju ne postoje dokazi. Maskova firma xAI je krivicu za opsednutost četbota Grok temom „beli genocid" i za odgovore na nepostavljena pitanja pripisala „neautorizovanoj izjavi“. U saopštenju se navodi da je sprovedeno „temeljno istraživanje“.
Da li se takve greške pojavljuju redovno? Da li korisnici mogu da budu sigurni, da dobijaju pouzdane informacije?
Istraživanje otkriva činjenične greške i falsifikovane citate
Dve studije koje su urađene za britanski javni medijski servis BBC i Centar za digitalno novinarstvo njujorškog Univerziteta Kolumbija ustanovile su velike manjkavosti četbotova. U februaru je u istraživanju za BBC konstatovano da odgovori pokazuju „znatne netačnosti i iskrivljenu sadržinu.
Na zahtev da predstave aktuelne vesti i da koriste BBC kao izvor, ChatGPT, Copilot, Gemini i Perplexity su čak u 51 odsto odgovora imali „znatne probleme različite vrste“.
U 19 odsto odgovora su pridodate činjenične greške, a 13 odsto citata je promenjeno ili izbačeno.
Zaključak Pita Arčera, programskog direktora za generativnu veštačku inteligenciju na BBC-ju je da se trenutno kod četbota veštačke inteligencije „ne može pouzdati u to da će korektno preneti vesti i postoji opasnost da će publiku dovesti u zabludu“.
I istraživanje koje je sprovedeno na Univerzitetu Kolumbija, objavljeno u martu, kaže da osam alata veštačke inteligencije nisu bili u stanju u 60 odsto slučajeva da korektno odrede poreklo odlomaka iz tekstova.
Perplexity ima procenat grešaka „samo“ 37 odsto, dok je kod Groka čak 94 odsto pogrešnih odgovora. U istraživanju se navodi da je „alarmantna pouzdanost“ s kojom ovi četbotovi daju pogrešne odgovore. Studija je ustanovila da je opšta slabost četbotova to što su loši u „odbijanju da odgovore na pitanja na koja ne mogu tačno da odgovore“.
Četbotovi su dobri koliko i njihov input
Četbotovi crpe svoje podatke iz različitih izvora u bankama podataka i u digitalnoj mreži. U zavisnosti od toga koliko su uvežbani, kvalitet odgovora može da varira. „Nedavno se pojavio problem poplave LLLM-a [opaska redakcije: Large Language Models] koju izazivaju ruske dezinformacije i propaganda“, kaže Tomazo Kaneta, koordinator za proveru činjenica Evropske opservatorije digitalnih medija (European Digital Media Observatory, EDMO). „Ako izvori nisu verodostojni i visoko kvalitetni, onda verovatno ni odgovori neće biti drugačiji", kaže on. Kaneta objašnjava da i on lično često dobija odgovore koji su „nepotpuni, neprecizni, zbunjujući ili čak pogrešni“.
Kad veštačka inteligencija pogreši
Četbot Meta AI je aprila 2024. jednoj čet grupi njujorških roditelja saopštio da ima akademski talentovano dete ometeno u razvoju. Četbot je kasnije uputio izvinjenje jer „nema lično iskustvo ili decu“. Ovo je saopštila kompanija Meta medijima koji su izvestili o događaju. „Radi se o novoj tehnologiji, koja možda ne isporučuje uvek željene odgovore. Od izlaska na tržište, stalno smo usavršavali naše modele i radimo dalje na tome da ih poboljšamo“, navodi se u saopštenju.
Pogrešne informacije mogle bi da imaju teške posledice. Avgusta 2024. je Grok tvrdio da Kamala Haris, koja je preuzela kandidaturu za predsednika SAD-a nakon povlačenja Džoa Bajdena, u nekim američkim državama ne sme da bude na izbornim listićima. To je naravno bila pogrešna informacija. Državni sekretar Minesote Stiv Sajmon reagovao je otvorenim pismom Ilonu Masku.
Grok pripisuje veštačku sliku realnim događajima
Očito su ograničenja velika i u identifikaciji sadržaja koje je proizvela veštačka inteligencija. Na pitanje o datumu i poreklu fotografije koju je proizvela veštačka inteligencija za jedan video sa požarom u hangaru na TikToku, Grok je odgovorio da se vide različiti incidenti na aerodromima u engleskom Salsberiju, u Koloradu i u Vijetnamu.
Na tim mestima jeste bilo požara i nesreća u nekoliko poslednjih godina, ali fotografija nije pokazivala ni jedno od njih. Još veću zabrinutost izaziva to što je Grok prepoznao oznaku TikToka na fotografiji i konstatovao da to govori o „autentičnosti fotografije“.
Međutim, kada se klikne na „detaljnije“ onda Grok kaže da je TikTok platforma koja služi sa širenje viralnih sadržaja što „može da dovede do pogrešnih informacija, ako ne preispitaju u skladu sa pravilima“.
Isto tako je Grok 14. maja potvrdio navodnu autentičnost videa koji je prikazivao anakondu dugačku nekoliko stotina metara. I to je bilo delo veštačke inteligencije.
Četbotovi nisu dobri za proveru činjenica
Četbotovi veštačke inteligencije nisu sveznajući. Oni greše, izvode pogrešne zaključke, a moguće je čak i da se njima manipuliše. Filiks Sajmon koji pohađa postdoktorske studije veštačke inteligencije i digitalnih vesti na Oksfordskom internet institutu (OII), zaključuje: „Sistemi veštačke inteligencije kao što su Grok, Meta AI ili ChatGPT ne smeju da se posmatraju kao alati za proveru činjenica. Oni doduše mogu sa izvesnim uspehom da se upotrebe za to, ali nije jasno koliko dobro i konzistentno ispunjavaju taj zadatak, naročito u graničnim slučajevima“.
Za Tomaza Kanetu četbotovi su korisni samo za veoma jednostavne zadatke. Ali savetuje da mu se ne veruje u potpunosti. Oba stručnjaka savetuju korisnicima, da odgovore uvek uporede sa drugim izvorima.
*ovaj članak je najpre objavljen na nemačkom jeziku