Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

dw.com  [ DW ]

09. 12. 2023. 03:13

Koliko slobode za vještačku inteligenciju u EU?

Ženska lica generisana veštačkom inteligencijom

Počelo je prije otprilike godinu dana ovom rečenicom: „Obučili smo model koji se zove ChatGPT i koji sa ljudima komunicira konverzacijom“. Ovako, prilično nerazumljivo, kompanija OpenAI je predstavila svog četbota na sopstvenoj veb stranici. Uslijedile su ovacije, horor scenariji i mnogo toga između. Veliko uzbuđenje oko ChatGPT-a je splasnulo, istovremeno aplikacije vještačke inteligencije postaju sve više dio svakodnevnog života, piše tagesšau, portal njemačkog javnog servisa ARD.

To se može vidjeti i u konsultantskoj agenciji iz Majnca „Robotspaceship“, koja proizvodi i digitalne sadržaje. „Koristimo ChatGPT za razvoj koncepata za podkastove ili generatore slika za kreiranje grafičkog dizajna“, kaže vlasnik Oliver Kemann. Vještačka inteligencija može da ubrza mnoge procese, uključujući i kreativne, kaže on, ali dodaje:

„Potrebna nam je regulativa. Ali to mora da bude urađeno kako treba, ne smijemo da pretjeramo sa regulisanjem.“

Regulativa na nivou EU – različiti nivoi rizika

Parlament EU, Evropska Komisija i države članice već mjesecima pokušavaju da ostvare tu ravnotežu. Riječ je o „Zakonu o vještačkoj inteligenciji" (AI Act), zakonu kojim se vještačka inteligencija reguliše na evropskom nivou.

U suštini, „Zakon o vještačkoj inteligenciji“ ima za cilj da reguliše njenu primjenu, a ne samu tehnologiju. Predviđeni su različiti nivoi rizika: zabrana, visoki rizik i ograničeni rizik.

Na primjer, treba zabraniti „društveno bodovanje“ (Social Scoring) putem vještačke inteligencije, odnosno procjenu građana na osnovu njihovog ponašanja u društvu. Kao „visokorizični sistemi vještačke inteligencije“ označeni su oni koji se koriste u zdravstvenom sektoru ili pri zapošljavanju. Na primjer, korišćenje vještačke inteligencije za pomoć u dijagnostici bolesti ili selekciji kandidata za posao. Za aplikacije koje predstavljaju samo ograničeni rizik predviđena je obaveza transparentnosti, a za one sa minimalnim rizikom nema nikakvih posebnih obaveza.

Ovaj pristup zasnovan na riziku u principu ima smisla, kaže Sandra Vahter, profesorka tehnologije i regulative na Univerzitetu u Oksfordu. To se odnosi makar na sisteme vještačke inteligencije koji se koriste za podršku donošenju odluka. U oblastima migracija, krivičnog prava i osiguranja, na primjer, mora se obezbijediti da vještačka inteligencija ne diskriminiše ljude.

U nekim oblastima, međutim, „neobjašnjivost“ odluka vještačke inteligencije je manje dramatična. „Ako mi Netfliks algoritam predloži film, da li zaista moram da razumijem zašto je to uradio“, pita Vahter.

S druge strane, generativna vještačka inteligencija kao što je ChatGPT, ne bi smjela da bude „crna kutija“.

Problem sa osnovnim modelima vještačke inteligencije

I upravo tu je nedavno došlo do spora između institucija EU - o tome koji propisi treba da važe za takozvane - osnovne modele vještačke inteligencije - koji su obučeni sa ogromnom količinom podataka i mogu se koristiti u različite svrhe. To je neka vrsta „vještačke inteligencije za sve namjene“.

Najpoznatiji primjer je model „GPT 4", koji je „hranjen" tonama tekstova sa interneta i na kojem je zasnovana trenutna verzija ChatGPT.

OpenAI - ChatGPT

Evropski parlament planirao je da „Zakonom o vještačkoj inteligenciji“, uvede sopstvena pravila za osnovne modele i, između ostalog, da ih obaveže da minimiziraju rizike po zdravlje, osnovna prava i demokratiju.

Njemačka, Francuska i Italija za princip dobrovoljnosti

Tokom pregovora, Njemačka, Francuska i Italija – vjerovatno ne samo zbog pritiska domaćih kompanija za vještačku inteligenciju – insistirale su da na osnovne modele ne treba da se primjenjuju nikakva dodatna pravila.

Umjesto toga, te tri zemlje predlažu princip dobrovoljnosti: programeri vještačke inteligencije bi, između ostalog, morali da objasne, funkcionalnost i mogućnosti svog modela u nekoj uputstva za upotrebu.

„Striktna i rigidna regulacija" osnovnih modela je problematična iz dva razloga, kaže Ralf Vintergerst, predsjednik Bitkoma industrijskog udruženja Njemačke.

„Prvo, raznovrsnost upotrebe osnovne vještačke inteligencije onemogućava provajderima da efikasno procjene i smanje rizik. Drugo, tehnički razvoj je brz, posebno na nivou ovih modela, tako da bi fiksna pravila u Zakonu o vještačkoj inteligenciji brzo zastarjela“, kaže Vintergerst. „Obavezna samoregulacija ne znači da nema pravila. Međutim, ona moraju biti praktično izvodljiva i dinamički prilagodljiva, bez „nepotrebnih prepreka izazvanih suviše rigidnim pravilima“, dodaje Vintergerst.

Međutim, neki stručnjaci vjeruju da dobrovoljna obaveza nije dovoljna kada se radi o „vještačkoj inteligenciji za sve namjene". „Ako tehnologija može da se koristi na tako raznolik i potencijalno štetan način, onda po definiciji spada u kategoriju visokog rizika“, kaže Sandra Vahter.

Potrebno je i jedno i drugo: transparentnost i lična odgovornost, ali i jasno definisane granice. „To je pomalo kao u supermarketu. Ako uzmem konzervu supe, važno je da na njoj jasno piše koje sastojke sadrži“, kaže Vahter, „ali moraju postojati pravila da određene stvari jednostavno ne smiju biti u supi“.

Kako protiv opasnosti od mase dezinformacija i olakšanog kriminala?

Vahter vidi posebnu opasnost u činjenici da se generativni odnosno osnovni modeli vještačke inteligencije koriste za generisanje mase dezinformacija ili kako bi se olakšao kriminal.

„Potrebno ih je tako programirati da ne može brzo da se shvati kako da se napravi bomba ili izvrši ubistvo bez tragova“, kaže Vahter. Na primjer firma OpenAI, koja je stvorila ChatGPT, hoće samostalno da spriječi odgovarajuće odgovore.

Takođe se mnogo diskutuje o pitanju da li sadržaj generisan vještačkom inteligencijom treba da bude obilježen digitalnim vodenim žigom, kako bi se spriječila obmana.

„To neće funkcionisati“, kaže konsultant za inovacije Oliver Keman. Takva obavještenja o transparentnosti bi vjerovatno mogla isuviše lako da se uklone.

Sandra Vahter to vidi drugačije. „To je neka vrsta igre mačke i miša. Ali, uklanjanje vodenog žiga moglo bi da se svrsta kao krivično djelo."

Gugl je predstavio svoju novu generativnu veštačku inteligenciju Gemini, 6.12.2023.

Zašto je važno požuriti sa zakonom

Teško je predvidjeti koja će pravila EU konkretno nametnuti programerima i korisnicima vještačke inteligencije.

Raspravljalo se i o tome da li treba da postoji stepenovani proces za osnovne modele: odnosno određena pravila samo za najveće ili najmoćnije među njima.

Takođe se često čulo da zakon možda uopšte neće biti donijet.

„Zakon o vještačkoj inteligenciji“ mogao bi da pomogne u stvaranju neophodnog povjerenja u sisteme vještačke inteligencije, kaže predsjednik Bitkoma Vintergerst. Sljedeći korak je da se brzo razjasni koji će organi nadzirati poštovanje pravila.

„Ne samo zabrane, već i pravna nesigurnost može da znači da se vještačka inteligencija više neće razvijati u Evropi, već negdje drugo u svijetu“, kaže Vintergerst.

U svakom slučaju, vrijeme za donošenje „Zakona o vještačkoj inteligenciji“ ističe, ne samo zato što se tehnologija ubrzano razvija, već i zato što će juna 2024. biti izabran novi parlament Evropske unije.

Pratite nas i na Fejsbuku, preko Tvitera, na Jutjubu, kao i na našem nalogu na Instagramu.

DW

Пратите нас на

Најновије

Најчитаније