- Hronika
- Kolumne
-
Radio
- Izdvajamo
-
Emisije
- Novosti dana
- Dokumentarni program
- Pop top
- Europuls
- Zrno po zrno
- Radio ordinacija
- Kulturna panorama
- Zelena priča
- Epoleta
- +382
- Spona
- Svijet jednakih šansi
- Matica
- Život po mjeri čovjeka
- Link
- Izokrenuti svijet
- Koracima mladih
- Moja profesija je...
- Sportski program
- Kulturno-umjetnički program
- Koracima prošlosti
- Naučno-obrazovni program
- Muzički program
- RCG
- R98
- Programska šema
- Trofej Radija Crne Gore
- Frekvencije
- Radio drama
Nauka i tehnologija
25. 02. 2025.
09:50 >> 09:50
Čitaj mi:
ZABRINJAVAJUĆI TREND
Kloniranje glasa zvuči kao naučna fantastika, ali je zapravo realnost
Jedan zabrinjavajući trend je zloupotreba kloniranja glasa. Za nekoliko sekundi prevaranti mogu klonirati glas i navesti ljude da pomisle da prijatelju ili članu porodice hitno treba novac.
Uspon vještačke inteligencije stvorio je mogućnosti za sliku, tekst, generisanje glasa i mašinsko učenje. Iako AI nudi mnoge prednosti, prevarantima takođe pruža nove metode za iskorištavanje pojedinaca i to najčešće za novac. Možda ste čuli za „dipfejk”, gdje se vještačka inteligencija koristi za kreiranje lažnih slika, video zapisa, pa čak i zvuka, često uključujući poznate ličnosti ili političare. Kloniranje glasa, vrsta ove tehnologije, stvara digitalnu repliku nečijeg glasa hvatanjem njihovih govornih obrazaca, akcenta i disanja iz kratkih audio uzoraka, piše Science Alert.
Jednom kada je obrazac govora napravljen, AI generator glasa može da konvertuje unos teksta u veoma realističan govor koji podsjeća na glas poznate osobe. Uz naprednu tehnologiju, kloniranje glasa se može postići samo sa audio uzorkom od tri sekunde. Dok je jednostavna fraza poput „zdravo, ima li nekoga?” može dovesti do prevare sa kloniranjem glasa, duži razgovor pomaže prevarantima da uhvate više vokalnih detalja i speciofičnosti. Zato je najbolje da pozivi budu kratki dok ne budete sigurni u identitet pozivaoca.
Kloniranje glasa ima dragocjenu primjenu u zabavi i zdravstvenoj zaštiti – omogućavajući daljinski glasovni rad umjetnicima (čak i posthumno) i pružajući pomoć osobama sa smetnjama u govoru. Međutim, to izaziva ozbiljnu zabrinutost za privatnost i bezbjednost.
Kako ga koriste kriminalci
Sajber kriminalci koriste tehnologiju kloniranja glasa da bi se lažno predstavljali kao poznate ličnosti, predstavnici vlasti ili obični ljudi. Kada se glas klonira, može se koristiti u prevari često praćenoj lažnim ID-om pozivaoca da bi izgledao kao da je pravo. Mnogi slučajevi prevara sa kloniranjem glasa dospjeli su na naslovne strane. Na primjer, kriminalci su klonirali glas direktora kompanije u Ujedinjenim Arapskim Emiratima da bi organizovali pljačku od 51 milion dolara. Biznismen u Mumbaju postao je žrtva prevare o kloniranju glasa koja je uključivala lažni poziv iz indijske ambasade u Dubaiju. Nedavno su u Australiji prevaranti koristili glasovni klon premijera Kvinslenda Stivena Majlsa da pokušaju da prevare ljude da ulažu u Bitkoin.
Koliko je rasprostranjena ova vrsta prevara?
Nedavna istraživanja pokazuju da se 28 odsto odraslih u Engleskoj prošle godine suočilo sa prevarama u vezi sa kloniranjem glasa, a 46 odsto nije znalo za postojanje ove vrste prevare. Tokom 2022. godine skoro 240.000 Australijanaca prijavilo je da su žrtve prevara sa kloniranjem glasa, što je dovelo do finansijskog gubitka od 568 miliona dolara.
Rizici koje predstavlja kloniranje glasa zahtijevaju multidisciplinarni odgovor. Ljudi i organizacije mogu primijeniti nekoliko mjera za zaštitu od zloupotrebe tehnologije kloniranja glasa. Prvo, kampanje za podizanje svijesti i edukacija mogu pomoći u zaštiti ljudi i organizacija i ublažiti ove vrste prevara, ljudi i organizacije treba da gledaju da koriste biometrijsku sigurnost.
Коментари0
Остави коментар