LLM modeli generišu predvidive lozinke
Analiza pokazuje da veliki jezički modeli (LLM) često generišu lozinke koje imaju obrasce i predvidive strukture, čak i kada se traže „nasumične“ kombinacije. To može smanjiti njihovu otpornost na napade pogađanjem ili napredne brute-force tehnike.
Pojašnjenje
Korišćenje generativne AI za kreiranje lozinki može stvoriti lažan osećaj sigurnosti ako se zanemari statistička predvidivost modela.
Preporuke
- Koristi specijalizovane menadžere lozinki za generisanje nasumičnih kredencijala.
- Izbegavaj oslanjanje na AI alate za kreiranje lozinki.
- Uvedi višefaktorsku autentikaciju za sve kritične naloge.