Banka upozorava: Milioni ljudi bi mogli biti žrtve finansijske prevare zbog vještačke inteligencije

20.09.2024. | 08:59

“Milioni” ljudi mogli bi da postanu žrtve prevara koje koriste vještačku inteligenciju (AI) za kloniranje svog glasa, upozorila je britanska banka.

Starling banka, onlajn zajmodavac, kaže da su prevaranti u stanju da koriste vještačku inteligenciju da repliciraju nečiji glas iz samo tri sekunde zvuka koji se nalazi u, na primjer, video snimku koji je ta osoba objavila na mreži.

Prevaranti tada mogu da identifikuju prijatelje i članove porodice te osobe i da koriste glas kloniran vještačkom inteligencijom da bi uputili telefonski poziv da traže novac, navodi CNN.

Ove vrste prevara imaju potencijal da “uhvate milione”, rekla je Starling banka u saopštenju za javnost u sredu.

Već su pogođene stotine

Prema istraživanju, koje se vršilo na više od 3.000 odraslih koje je banka sprovela sa Mortar Research prošlog mjeseca, više od četvrtine ispitanika je reklo da su bili na meti prevara kloniranja glasa pomoću vještačke inteligencije u posljednjih 12 mjeseci.

Istraživanje je takođe pokazalo da 46 odsto ispitanika nije bilo svjesno da takve prevare postoje, a da bi osam odsto poslalo onoliko novca koliko je zatražio prijatelj ili član porodice, čak i ako im se čini da je poziv čudan.

“Ljudi redovno objavljuju sadržaj na mreži koji ima snimke njihovog glasa, a da nisu ni slutili da ih to čini ranjivijim na prevarante”, rekla je u saopštenju za štampu Liza Grejm, direktorka za bezbijednost informacija u Starling banci.

Banka ohrabruje ljude da sa svojim voljenima dogovore “sigurnu frazu” – jednostavnu, nasumičnu frazu koja se lako pamti i koja se razlikuje od drugih lozinki – koja se može koristiti za verifikaciju njihovog identiteta preko telefona.

Savjetuje se da ne dijelite sigurnu frazu preko poruka, što bi prevarantima moglo olakšati da saznaju, ali, ako se dijeli na ovaj način, poruku treba izbrisati kada je druga osoba vidi.

Kako AI postaje sve vještija u oponašanju ljudskih glasova, raste zabrinutost oko njenog potencijala da naudi ljudima, na primer, pomažući kriminalcima da pristupe njihovim bankovnim računima i šire dezinformacije.

Ranije ove godine, OpenAI, proizvođač generativnog AI chatbot ChatGPT-a, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga u toj fazi nije učinio dostupnim javnosti, navodeći “potencijal za zloupotrebu sintetičkog glasa”, prenosi b92.