Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Nauka i tehnologija

B.Bu. [ Forbes ]

23. 05. 2024. 10:52 >> 10:52
Čitaj mi:

Lažne AI slike Katy Perry i Rihanne postale su viralne, kako prepoznati deepfake?

Lažne AI slike Katy Perry i Rihanne na ovonedjeljnoj Met Gali postale su viralne, što je samo posljednja u nizu situacija kada su takozvane deepfake slike zavarale ljude na internetu. Ipak, često su očite greške poput lošijeg kvaliteta ili, na primjer, nedostatka prstiju, jasan znak da su slike ili snimke manipulisane.

 

Deepfake slike oblik su vještačke inteligencije sa nazivom “duboko učenje”, kojim AI sam sebe “uči” kako da riješi probleme temeljem seta podataka. Koristi se za zamjenu lica u videosnimkama i slikama kako bi se kreirao realan lažni sadržaj.

Neke deepfake slike izrađuju se za stvaranje duhovitog sadržaja, poput kompilacije glumca Nicolasa Cagea u filmovima u kojima on nije glumio. Druge se pak koriste maliciozno, na primjer za stvaranje pornografskog sadržaja (ili takozvane osvetničke pornografije), gdje se često koriste lica slavnih osoba. Prema podacima Deeptracea, 96 odsto svih deepfake snimki pronađenih na internetu 2019. godine bilo je pornografskog sadržaja.

“Izum” deepfakeova pripisuje se korisniku Reddita imena “Deepfake“, koji je na toj stranici 2017. godine objavio lažnu pornografiju u kojoj je lica zvijezda filmova za odrasle zamijenio licima pjevačice Taylor Swift i glumice Scarlett Johansson.

I političari su često žrtve deepfakea: 2018. godine internetom se proširio lažni video Baracka Obame u kojem on Donalda Trumpa naziva “totalnim go**rom.”

Ovogodišnja Met Gala održana je ovog ponedjeljka, a tada je na X-u objavljena lažna fotografija pjevačice Katy Perry u velikoj cvjetnoj haljini koja je prikupila 15,5 miliona pregleda. Ipak, na fotografiji djeluje kao da Perry nema jednu ruku, nije na ispravnom crvenom tepihu, a samo neki fotografi na nju obraćaju pozornost – što je malo vjerojatno u slučaju stvarne fotografije. Druga slika Kety Perry generisana umjetnom inteligencijom, u kojoj pjevačica nosi drugačiju haljinu, takođe je postala viralna na platformi, prikupivši preko 4,5 miliona pregleda. Iako se na toj fotografiji pjevačica nalazi na tačnom crvenom tepihu, oko njenih očiju i na ruci primjećuju se abnormalnosti. Pjevačica je sama podijelila te slike i na svom profilu na Instagramu, ali uz objašnjenje: “Nisam stigla na Met, morala sam raditi.” Viralna je postala i lažna slika Riane koja takođe nije bila prisutna na eventu, zbog bolesti.

Kako prepoznati deepfake sliku:
Ostaci: To su neobične značajke ili nešto što ne pripada slici ili snimci. Na primjer, radi se o nesparenim cipelama ili naušnicama, izobličenoj čeljusti, nedostatku prstiju ili višku nogu.

Pokreti očima: Često deepfake snimke prikazuju ljude kako čudno trepću ili izvode neobične pokrete očima. Studija objavljena na sveučilištu Cornell koristila je upravo detekciju treptanja kako bi otkrila da u deepfake snimkama osobe ne trepću kako treba.

Kvalitet zvuka/slike: Na mnogim deepfake snimkama zvuk i slika nisu sinkronizovani. Jedan primjer je video ruskog predsjednika Putina koji “objavljuje” kako je postigao mir s Ukrajinom, ali pokreti njegovih usta ne odgovaraju zvuku snimke.

Izvori: Deepfake sadržaj postaje sve uvjerljiviji, zbog čega je najbolji način za otkrivanje je li lažan to da pogledate izvor sadržaja. Ipak, društvene mreže takvo nešto otežavaju, budući da svi mogu dijeliti snimke ili slike. Originalni izvor videa američkog predsjednika Joea Bidena, na primjer, trebala bi biti Bijela kuća, neka službena vladina agencija ili pouzdani medij.

Poboljšajte svoje vještine otkrivanja: Postoji nekoliko internetskih stranica koje pomažu ljudima poboljšati svoje vještine primjećivanja deepfake sadržaja. Stranica Detect Fakes MIT-ja sastoji se od kratkog kviza koji korisnicima omogućava da uporede dva videa i odluče koji je stvaran. Microsoftov Spot the Deepfake kviz je od deset pitanja u kojem korisnici otkrivaju znakove poput kretnji očiju i emocionalnih reakcija kako bi razotkrili deepfakeove.

Пратите нас на

Коментари0

Остави коментар

Остави коментар

Правила коментарисања садржаја Портала РТЦГВише
Поштујући начело демократичности, као и право грађана да слободно и критички износе мишљење о појавама, процесима, догађајима и личностима, у циљу развијања културе јавног дијалога, на Порталу нијесу дозвољени коментари који вријеђају достојанство личности или садрже пријетње, говор мржње, непровјерене оптужбе, као и расистичке поруке. Нијесу дозвољени ни коментари којима се нарушава национална, вјерска и родна равноправност или подстиче мржња према ЛГБТ популацији. Неће бити објављени ни коментари писани великим словима и обимни "copy/paste" садрзаји књига и публикација.Задржавамо право краћења коментара. Мање

Да бисте коментарисали вијести под вашим именом

Улогујте се

Најновије

Најчитаније