Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Janoš Delker  [ DW ]

03. 08. 2024. 12:40

Kako protiv dipfejka?

Snimci izgledaju realno tako da se ne mogu prepoznati kao prevara

Sredinom prošle decenije naučnici su uz pomoć vještačke inteligencije „Deep Learning“ počeli da proizvode lažne snimke realističnog izgleda. Odmah potom na internetu su se pojavili pornografski sadržaji u kojima su lica poznatih ljudi „nalepljena“ na gola tijela.

Od tada je tehnologija brzo napredovala. Danas svako može da proizvodi uvjerljive falsifikate, bez posebnih tehničkih vještina, uz pomoć programa vještačke inteligencije. To je dovelo do raznih oblika zloupotrebe.

Dipfejk pomaže kriminalcima da se, recimo, predstave kao šefovi u firmama i onda od saradnika zatraže da prebace novac na određeni račun ili odaju povjerljive informacije. Dipfejk se koristi i za širenje dezinformacija ili za uticaj na javno mnjenje.

Najčešća zloupotreba se odnosi na pornografske slike koje lažno prikazuju ljude koji su navodno goli ili u seksualnom odnosu.

Nova zakonska regulativa i vještačka inteligencija

Širom svijeta se diskutuje o novim zakonima koji bi parirali zloćudnim pojavama koje nastaju na osnovu tehnologije kao što je dipfejk.

U Njemačkoj je u junu objavljen nacrt takvog zakona koji je razradio dom njemačkih pokrajina Bundesrat. Nacrt predviđa oštrije kazne kao i uvođenje novog krivičnog djela, „povrede ličnog prava digitalnom imitacijom“.

Do sada je zloupotreba tehnologije dipfejk u Njemačkoj bila obuhvaćena zakonima koji su pisani prije nastanka te tehnologije. Oni se odnose na povredu ličnih ili autorskih prava.

Georg Ajzenrajh, ministar unutrašnjih poslova Bavarske iz redova Hrišćansko-socijalne unije (CSU) kaže da bi unošenje novog krivičnog djela u krivični zakonik unjelo veću jasnoću u materiju.

U procesu usvajanja zakona svakako će doći do promjena, ali ovaj nacrt će imati uticaj i na još jedan zakon na kojem radi Ministarstvo pravde – zakon za suzbijanje digitalnog nasilja. On će prema smjernicama EU morati da stupi na snagu do ljeta 2027.

Aktivisti govore o „opasnosti pretjeranog kriminalizovanja“

Aktivisti koji se bore za zaštitu ljudskih prava kažu da većina prekršaja koji se odnose na dipfejk može da se sankcioniše na osnovu postojećih zakona. Upozoravaju da bi poseban zakon mogao da učini kažnjivim i legitimne upotrebe tehnologije.

„Dipfejk nam stvarno predstavlja problem. Ali iz toga ne smije da se zaključi da se kazne do te mjere pooštre, da pod njih potpadne i ponašanje koje nije za kaznu. Inače postoji opasnost da društveno prihvatljivo ponašanje ili upotreba sa satiričnom ili umetničkom svrhom postanu ilegalni“, kaže advokat Benjamin Lik, koji radi za berlinsko Društvo za slobodarska prava.

Ovo pokazuje da je tehnologija, koja briše razliku između stvarnosti i fikcije veliki izazov. Politika mora da zaštiti građane od zloupotrebe, a da pri tome ne ograniči prava i slobode ili slobodno izražavanje mišljenja.

„Ne bi trebalo svaki dipfejk učiniti kažnjivim. Ako političarima stavite u usta bezazlene riječi, i potpuno je jasno da se radi o šali, problematično je da se tu vitla teškim mačem i da se kaže da je to krivično relevantno“, smatra Lik.

A klasične dezinformacije?

Ali ovim zakonskim promjenama neće biti obuhvaćena još jedna velika opasnost u čijoj osnovi je dipfejk. Na osnovu te tehnologije mogu da se šire neistine o političarima i događajima. Da se stvara nemir i unosi razdor u društvo.

„Nikakva zabrana neće sprečiti državno orkestrirane dezinformacione kampanje“, kaže Lik.

On dodaje da je mnogo važnije da se u svim oblastima društva podigne svijest o tome da ono što se vidi i čuje onlajn može da bude laž. U takvom medijskom obrazovanju bi prema njemu dipfejk u satiri i umjetnosti igrao veliku ulogu.

Kriminalizacija cijele tehnologije, mogla bi, kaže on, da bude kontraproduktivna i da spriječi senzibilizaciju za rizike. „U paušalnoj zabrani se krije opasnost da na kraju budemo gluplji od društva“, kaže Benjamin Lik.

HateAid hoće još stroži pristup

HateAid pozdravlja definisanje novog krivičnog djela koje se vrši na osnovu dipfejk-tehnologije.

„Dipfejk proizvodi ekstremno veliko ugroževanje demokratskog društva“, rekla je Franciska Bening iz berlinske humanitarne organizacije HateAid. Bening kaže da su većina žrtava – žene.

Ona kaže da su ranije žrtve bile uglavnom poznate, a sada je među njima sve više običnih ljudi. I po današnjim zakonima je tako nešto kažnjivo, ali Bening kaže da kažnjivost zavisi od pojedinačnog slučaja i procjene sudije.

Bening kaže da je potrebno otići i korak dalje, te učiniti kažnjivom proizvođenje pornografskih slika na osnovu ove tehnologije, čak i kada se one ne podjele sa drugima. „To bi za mnoge bio korak naprijed“, rekla je ona.

DW

Пратите нас на

Најновије

Најчитаније