NavMenu

Milioni ljudi bi mogli biti žrtve finansijske prevare zbog kloniranja glasa - Rizici objavljivanja video-snimaka na mrežama

Izvor: B92 Petak, 20.09.2024. 12:06
Komentari
Podeli
Pomoću glasa kloniranog veštačkom inteligencijom prevaranti telefonom traže pozajmicu od "srodnika" (Foto: Pixabay/mariya_m)Pomoću glasa kloniranog veštačkom inteligencijom prevaranti telefonom traže pozajmicu od "srodnika"

Starling banka, onlajn zajmodavac, kaže da su prevaranti u stanju da koriste veštačku inteligenciju da bi replicirali nečiji glas iz samo tri sekunde zvuka koji se nalazi u, na primer, video-snimku koji je ta osoba objavila na mreži.

Prevaranti tada mogu da identifikuju prijatelje i članove porodice te osobe i da koriste glas kloniran veštačkom inteligencijom da bi uputili telefonski poziv da traže novac, navodi CNN.

Ove vrste prevara imaju potencijal da "uhvate milione", rekla je Starling banka u saopštenju za javnost u sredu.

Već su pogođene stotine

Prema istraživanju koje se vršilo na više od 3.000 odraslih koje je banka sprovela sa Mortar Research prošlog meseca, više od četvrtine ispitanika je reklo da su bili na meti prevara kloniranja glasa pomoću veštačke inteligencije u poslednjih 12 meseci.

Istraživanje je takođe pokazalo da 46% ispitanika nije bilo svesno da takve prevare postoje, a da bi 8% poslalo onoliko novca koliko je zatražio prijatelj ili član porodice, čak i ako im se čini da je poziv čudan.

- Ljudi redovno objavljuju sadržaj na mreži koji ima snimke njihovog glasa, a da nisu ni slutili da ih to čini ranjivijim na prevarante - rekla je u saopštenju za štampu Liza Grejm, direktorka za bezbednost informacija u Starling banci.

Smislite sigurnu frazu

Banka ohrabruje ljude da sa svojim voljenima dogovore "sigurnu frazu" – jednostavnu, nasumičnu frazu koja se lako pamti i koja se razlikuje od drugih lozinki – koja se može koristiti za verifikaciju njihovog identiteta preko telefona.

Savetuje se da ne delite sigurnu frazu preko poruka, što bi prevarantima moglo olakšati da saznaju, ali ako se deli na ovaj način, poruku treba izbrisati kada je druga osoba vidi.

Kako AI postaje sve veštija u oponašanju ljudskih glasova, raste zabrinutost oko njenog potencijala da naudi ljudima, na primer pomažući kriminalcima da pristupe njihovim bankovnim računima i šire dezinformacije.

Ranije ove godine, OpenAI, proizvođač generativnog AI chatbot ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga u toj fazi nije učinio dostupnim javnosti, navodeći "potencijal za zloupotrebu sintetičkog glasa".
Komentari
Vaš komentar
Potpuna informacija je dostupna samo komercijalnim korisnicima-pretplatnicima i neophodno je da se ulogujete.

Zaboravili ste šifru? Kliknite OVDE

Za besplatno probno korišćenje, kliknite OVDE

Pratite na našem portalu vesti, tendere, grantove, pravnu regulativu i izveštaje.
Registracija na eKapiji vam omogućava pristup potpunim informacijama i dnevnom biltenu
Naš dnevni ekonomski bilten će stizati na vašu mejl adresu krajem svakog radnog dana. Bilteni su personalizovani prema interesovanjima svakog korisnika zasebno, uz konsultacije sa našim ekspertima.