Istraživači pokazali kako se Copilot i Grok mogu zloupotrebiti kroz prompt injection
Istraživači su demonstrirali da AI asistenti poput Copilot-a i Grok-a mogu biti zloupotrebljeni kroz prompt injection tehnike koje zaobilaze zaštitne mehanizme. Napadi omogućavaju manipulaciju odgovorima i potencijalno otkrivanje osetljivih informacija.
Pojašnjenje
AI asistenti uvode novu površinu napada u kojoj manipulacija unosom može imati bezbednosne posledice.
Preporuke
- Ograniči pristup osetljivim podacima kroz AI alate.
- Testiraj otpornost AI sistema na prompt injection scenarije.
- Definiši interne smernice za bezbednu upotrebu generativnih AI alata.