AI vendori često prebacuju odgovornost za bezbednosne propuste na korisnike
The Register u tekstu ukazuje na obrazac po kome AI kompanije podstiču firme da uvode njihove alate u bezbednosne i razvojne tokove, ali zatim bezbednosne propuste u tim istim alatima opisuju kao očekivano ponašanje ili rizik po dizajnu. Kao primeri se navode prompt injection napadi na AI agente povezane sa GitHub Actions, kao i spor oko dizajna Anthropic MCP protokola, gde su istraživači tražili dublju ispravku, a dobili odgovor da sistem radi kako je zamišljeno. Suština teksta nije u jednom pojedinačnom propustu, već u tome kako vendori reaguju kada se pokaže da njihov proizvod uvodi novi bezbednosni teret.
Za firme je nezgodno to što se rizik ne završava na samom otkrivanju ranjivosti, već se često seli naniže, na timove koji alat uvode, povezuju i brane u sopstvenom okruženju. Kad vendor ne preuzme punu odgovornost za arhitektonski problem, korisnik ostaje sa dokumentacijom, zaobilaznim merama i posledicama koje mora sam da nosi.
- Ne uvoditi AI alate u osetljive tokove rada bez jasne procene ko snosi odgovornost za njihove bezbednosne propuste
- Tražiti od vendora javna bezbednosna obaveštenja, smernice i jasan stav o poznatim ograničenjima proizvoda
- Posmatrati prompt injection i slične obrasce kao arhitektonski rizik, ne samo kao pojedinačan bag
- Ograničiti privilegije, pristup tajnama i mrežne mogućnosti AI agenata u produkcionom okruženju
- U nabavci i proceni alata vrednovati i bezbednosnu zrelost vendora, ne samo sposobnosti modela