Deepfake prevare dostižu zabrinjavajuće razmere. U martu 2025. singapurska finansijska direktorka odobrila je transfer od skoro pola miliona dolara, ubeđena da učestvuje na regularnom Zoom sastanku. Svi učesnici, njihova lica i glasovi, bili su veštačka inteligencija. Samo godinu dana ranije, sličan napad koštao je inženjersku firmu Arup 25,6 miliona dolara.
Ono što posebno zabrinjava jeste da je za kloniranje nečijeg glasa potrebno tek tri sekunde audio materijala – dovoljno je da napadač preuzme isečak sa društvenih mreža ili javnog nastupa. Podaci su alarmantni: broj incidenata sa deepfake glasovnim prevarama skočio je 680 odsto tokom 2025, a dokumentovani gubici u prva četiri meseca premašili su 200 miliona dolara. Ukupna globalna šteta procenjuje se na preko dve milijarde dolara, s tim što su realne cifre verovatno znatno veće jer kompanije često ne prijavljuju ovakve slučajeve.
Meta više nisu samo finansijski sektori. Hakeri sada koriste ukradene identitete kako bi pomoću AI generisanih osoba prodrli i u IT službe, pa čak i u procese zapošljavanja radi dobijanja pristupa poverljivim podacima. Stručnjaci za bezbednost ističu da tehnologija sama po sebi nije dovoljna zaštita – ključno je ljudsko rasuđivanje. Preporučuju se tri jednostavne mere: dogovorena verbalna šifra za velike transakcije, obavezan povratni poziv na poznati broj pre odobrenja transfera i pravilo da hitni zahtevi automatski zahtevaju dodatnu proveru