Prema najnovijem istraživanju firme za sajber bezbednost Irregular, lozinke koje generišu sistemi veštačke inteligencije — kao što su **ChatGPT, Claude i Gemini — iako izgledaju „snažno” i komplikovano, **često su predvidive i nisu zaista bezbedne.
Stručnjaci objašnjavaju da ovi modeli ne prave istinski nasumične lozinke, već koriste obrasce iz podataka na kojima su trenirani, pa se iste ili slične kombinacije mogu ponavljati ili biti lakše pogodljive za napadače.
Suosnivač Irregular Dan Lahav upozorava da korisnici ne bi trebalo da veruju AI-generisanim lozinkama i da bi trebalo da promene lozinke ako su ih tako napravili, jer mogu biti ranjivije na provale.
Iako alati za proveru snage lozinki često ocenjuju ove kombinacije kao jake, predvidljivost obrazaca čini ih manje sigurnim u praksi nego što izgledaju na prvi pogled.