Основна тема
Црно/бијела тема
Инверзна тема
MNE Play
MNE Play

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Nauka i tehnologija

A.J. [ Index.hr ]

07. 04. 2025. 22:51 >> 22:54

Vještačka inteligencija ne razmišlja kao čovjek – i to je ozbiljan problem

U posljednjih nekoliko godina, vještačka inteligencija (AI) više nije samo tehnički alat u rukama inženjera – ona je sve prisutnija u procesima odlučivanja koji direktno utiču na ljudske živote. Od medicinskih dijagnoza, preko pravosudnih presuda, do ocjenjivanja učenika i selekcije kandidata za posao – AI donosi odluke koje mogu da budu za nekoga presudne. Ali, koliko je zapravo pouzdana?

Nova studija objavljena u februaru 2025. u uglednom časopisu Transactions on Machine Learning Research donosi hladan tuš za one koji se nadaju da će vještačka inteligencija uskoro dostići (ili čak prevazići) ljudsku sposobnost prosuđivanja.

Istraživači su otkrili da AI, iako izuzetno uspješna u prepoznavanju obrazaca, ima ozbiljan problem sa razumijevanjem apstraktnih pravila, prepoznavanjem analogija i generalizacijom – sposobnostima koje su ljudima prirodne, prenosi Index.

Autori studije objašnjavaju da su veliki jezički modeli, poput GPT-a, pokazali dobre rezultate na brojnim testovima zaključivanja, uključujući i one koji ispituju razmišljanje u analogijama. Međutim, postavlja se pitanje – da li oni zaista razumiju ono što rade ili samo uspješno „imitiraju” logiku na osnovu ogromne količine prethodno naučenih podataka?

Drugim riječima – dok ljudi razumiju pravilo koje stoji iza nekog problema, AI modeli često samo prepoznaju sličnosti sa situacijama iz svoje baze podataka. I to je, kako piše MIT Technology Review, suštinska razlika između čovjeka i mašine.

Testiranje u tri domena: slova, brojevi i priče

Da bi provjerili kako se vještačka inteligencija snalazi u apstraktnom razmišljanju, istraživači su testirali GPT modele u tri različite oblasti:

Analogije sa nizovima slova

Numeričke matrice (brojčani obrasci)

Narativne analogije (kontekstualne priče)

Zadatke su rešavali i ljudi i AI, ali je u svakom slučaju napravljen korak dalje: pored standardnih testova, korišćene su i njihove modifikovane verzije, koje su bile dovoljno različite da zahtijevaju apstraktnije zaključivanje. Ideja je bila jasna – ako AI zaista razumije principe, trebalo bi da se snađe i u varijacijama zadataka koje ne liče na one na kojima je trenirana.

Rezultati su, međutim, bili poražavajući za AI.

U zadacima sa nizovima slova (npr. abcd → abce, pa se pita šta slijedi za ijkl), većina ljudi je bez problema prepoznala obrazac i odgovorila „ijkm”.

GPT modeli su tu, takođe, bili uspješni.

Kod nešto složenijih primjera – recimo, abbcd → abcd, pa se pita šta bi slijedilo iz ijkkl – ljudi su prepoznali logiku uklanjanja dupliranog slova i rekli „ijkl”. GPT modeli su tu, međutim, počeli da griješe.

Kako je zadatak postajao kompleksniji, i ljudi su imali više teškoća, ali njihova sposobnost da se snađu u nepoznatom i dalje je bila značajno veća od one koju su pokazali AI modeli.

Slično je bilo i u testovima brojčanih matrica – AI se dobro snalazio dok je obrazac bio poznat, ali je bio daleko manje uspješan kada je trebalo prepoznati logiku u varijacijama zadatka.

Najveće razlike su uočene u narativnim analogijama – situacijama u kojima je potrebno prepoznati suštinsku povezanost između priča, likova i njihovih odnosa. Tu je vještačka inteligencija pokazala slabosti: bila je osjetljiva na redosljed odgovora (što ne pogađa ljude) i imala je tendenciju parafraziranja umjesto davanja jasnog odgovora.

AI pada gdje ljudi briljiraju

U stvarnim životnim situacijama, sposobnost apstraktnog zaključivanja je najvažnija. Sudija, na primjer, ne donosi odluku samo na osnovu presedana – on mora da prepozna da li se pravilo iz prethodnog slučaja može primijeniti na novu situaciju. Ljekar mora da razume da isti simptom može da ukazuje na potpuno različite bolesti, u zavisnosti od konteksta.

AI tu zakazuje. Studija je pokazala da modeli poput GPT-a imaju nizak kapacitet za tzv. zero-shot učenje – sposobnost da iznesu tačan zaključak bez prethodnog primjera iz iste kategorije. Drugim riječima, ako vještačka inteligencija nije nešto slično već vidjela, velika je vjerovatnoća da će pogriješiti.

U domenu zdravstva, to može da znači pogrešnu dijagnozu ili terapiju. U pravosuđu – pogrešnu presudu. U obrazovanju – nepoštenu ocjenu.

Problem nije u znanju – već u načinu razmišljanja, kako ističe jedna od autorki studije, dr Lora Luis.

„Problem nije u količini podataka, već u načinu na koji se oni koriste. Ljudi znaju kada pravilo važi, a kada ne – modeli to ne znaju”, kaže dr Luis.

AI sistemi danas briljiraju u prepoznavanju obrazaca – što više podataka, to su bolji, stoji dalje u studiji. Generalizacija, sposobnost da se iz specifičnih slučajeva izvuku opšta pravila i primjene u novim situacijama, međutim, ostaje njihova najveća slabost.

Ključna poruka studije jeste da AI ne treba ocjenjivati samo prema tačnosti odgovora, već i prema robusnosti i stabilnosti logike koju koristi. Ako se odgovor mijenja u zavisnosti od redosljeda pitanja, načina na koji je formulisano ili konteksta u kojem se daje – to nije pouzdan sistem za donošenje ozbiljnih odluka.

Zato oni koji koriste vještačku inteligenciju moraju da razumiju ne samo šta AI može, već i gdje su joj granice.

„Moramo prestati da očekujemo da AI razmišlja kao čovjek. Umjesto toga, moramo naučiti kako ona zaključuje i gdje prestaje njena moć razumijevanja”, zaključuje dr Luis.

Bez ljudskog nadzora, AI možda izgleda kao da zna šta radi – ali, suštinski, može da donosi pogrešne odluke.

Пратите нас на

Коментари0

Остави коментар

Остави коментар

Правила коментарисања садржаја Портала РТЦГВише
Поштујући начело демократичности, као и право грађана да слободно и критички износе мишљење о појавама, процесима, догађајима и личностима, у циљу развијања културе јавног дијалога, на Порталу нијесу дозвољени коментари који вријеђају достојанство личности или садрже пријетње, говор мржње, непровјерене оптужбе, као и расистичке поруке. Нијесу дозвољени ни коментари којима се нарушава национална, вјерска и родна равноправност или подстиче мржња према ЛГБТ популацији. Неће бити објављени ни коментари писани великим словима и обимни "copy/paste" садрзаји књига и публикација.Задржавамо право краћења коментара. Мање

Да бисте коментарисали вијести под вашим именом

Улогујте се

Најновије

Најчитаније