Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Nauka i tehnologija

26. 06. 2024. 08:19 >> 08:19
Čitaj mi:

AI

Vještačka inteligencija sposobna da manipuliše ljudima

Mnogi sistemi vještačke inteligencije već su naučili kako da prevare ljude, čak i sisteme koji su obučeni da budu korisni i iskreni.

U članku objavljenom u časopisu Paterns, istraživači opisuju rizike obmane od strane sistema vještačke inteligencije i pozivaju vlade da razvije snažne propise za rješavanje tog pitanja što je prije moguće.

"Programeri vještačke inteligencije (AI) nemaju pouzdano razumijevanje onoga što uzrokuje nepoželjna ponašanja AI, poput obmane", kaže prvi autor Piter Park, postdoktorand AI na MIT-u. "Ali uopšteno govoreći, mislimo da obmana vještačke inteligencije nastaje jer se strategija zasnovana na obmani pokazala najboljim načinom za dobre rezultate na postavljenom zadatku obuke AI. Obmana im pomaže u postizanju njihovih ciljeva."

Park i kolege analizirali su literaturu fokusirajući se na načine na koje sistemi vještačke inteligencije šire lažne informacije - kroz naučenu obmanu, u kojoj sistematski uče da manipulišu drugima, prenosi Sajens Dejli.

Najupečatljiviji primjer obmane AI koji su istraživači otkrili u svojoj analizi bio je Metaov CICERO, system vještačke inteligencije dizajniran za igranje igre Diplomatija, koja je igra svjetskog osvajanja koja uključuje izgradnju saveza. Iako Meta tvrdi da je trenirao CICERO da bude "uglavnom iskren i koristan" i da "nikada namjerno ne zabija nož u leđa" svojim ljudskim saveznicima dok igra igru, podaci koje je kompanija objavila zajedno sa svojim naučnim radom otkrili su da CICERO nije igrao pošteno.

"Otkrili smo da je Metina AI naučila da bude majstor obmane", kaže Park. "Iako je Meta uspio obučiti svoju AI za pobjedu u igri diplomatije - CICERO se plasirao među prvih 10 posto ljudskih igrača koji su odigrali više od jedne utakmice - Meta nije uspio trenirati svoju AI za ipoštenu pobjedu".

Drugi sistemi vještačke inteligencije pokazali su sposobnost blefiranja u igri Teksas poker protiv profesionalnih ljudskih igrača, lažiranja napada tokom strateške igre Starkraft II kako bi pobijedili protivnike i pogrešnog predstavljanja njihove preferencije kako bi stekli prednost u ekonomskim pregovorima.

Iako se može činiti bezopasnim ako sistemi AI varaju na igrama, to može dovesti do "proboja u obmanjujućim sposobnostima AI" koji u budućnosti mogu preći u naprednije oblike obmane vještačke inteligencije, dodao je Park.

Neki sistemi AI čak su naučili da varaju testove dizajnirane za procjenu njihove sigurnosti, otkrili su istraživači. U jednoj studiji, organizmi AI u digitalnom simulatoru "pravili su se mrtvi" kako bi prevarili test izrađen za uklanjanje sistema AI koji se brzo repliciraju.

"Sistematskim varanjem bezbjednosnih testova koje su joj nametnuli ljudski programeri i regulatori, varljiva vještačka inteligencija može nas dovesti u lažni osjećaj sigurnosti", kaže Park.

Glavni kratkoročni rizici obmanjujuće AI uključuju olakšavanje neprijateljskim akterima da počine izborne prevare, upozorava Park. Na kraju, ako ti sistemi mogu usavršiti ovaj uznemirujući skup vještina, ljudi bi mogli izgubiti kontrolu nad njima, kaže on.

"Nama kao društvu potrebno je što više vremena da se pripremimo za napredniju obmanu koju će stvoriti AI", kaže Park. "Kako obmanjujuće sposobnosti sistema AI postaju sve naprednije, opasnosti koje predstavljaju za društvo postaće sve ozbiljnije."

Iako Park i njegove kolege još ne misle da društvo ima pravi način za rješavanje prevare AI, podstiču ga da kreatori politika počnu ozbiljno shvatati to pitanje mjerama kao što su Zakon o vještačkoj inteligenciji EU-a i Izvršni nalog predsjednika Bajdena za AI. No, ostaje da se vidi, kaže Park, mogu li se politike osmišljene za ublažavanje obmane AI strogo sprovoditi s obzirom na to što programeri još nemaju tehnike za držanje tih sistema pod kontrolom.

"Ako je zabrana obmane AI politički neizvodljiva u ovom trenutku, preporučujemo da se varljivi sistemi AI klasifikuju kao visokorizični", kaže Park.

Preveo i priredio: S. Đurđić

 

 

Пратите нас на

Коментари0

Остави коментар

Остави коментар

Правила коментарисања садржаја Портала РТЦГВише
Поштујући начело демократичности, као и право грађана да слободно и критички износе мишљење о појавама, процесима, догађајима и личностима, у циљу развијања културе јавног дијалога, на Порталу нијесу дозвољени коментари који вријеђају достојанство личности или садрже пријетње, говор мржње, непровјерене оптужбе, као и расистичке поруке. Нијесу дозвољени ни коментари којима се нарушава национална, вјерска и родна равноправност или подстиче мржња према ЛГБТ популацији. Неће бити објављени ни коментари писани великим словима и обимни "copy/paste" садрзаји књига и публикација.Задржавамо право краћења коментара. Мање

Да бисте коментарисали вијести под вашим именом

Улогујте се

Најновије

Најчитаније