Propust u ChatGPT okruženju omogućavao tiho izvlačenje promptova i fajlova
CyberPress piše da je propust u ChatGPT Data Analysis okruženju omogućavao tiho izvlačenje korisničkih promptova, otpremljenih fajlova i drugih osetljivih podataka preko DNS kanala. Prema opisu iz teksta, problem je bio u tome što je standardni izlazni saobraćaj bio ograničen, ali je DNS rezolucija ostala dostupna, pa su istraživači pokazali kako se podaci mogu iznositi kroz DNS tunneling bez vidljivog upozorenja korisniku. Navodi se i da je OpenAI zakrpio problem 20. februara 2026. nakon odgovornog prijavljivanja od strane Check Point Research.
Ovde je nezgodno to što se curenje nije oslanjalo na klasičan mrežni kanal koji korisnik očekuje, već na osnovni infrastrukturni protokol koji se lako previdi. Kako AI alati sve više obrađuju osetljive dokumente i podatke, ovakvi propusti pokazuju da zaštita mora da obuhvati i najniže slojeve okruženja, ne samo aplikativna ograničenja.
- Osetljive podatke unositi u AI okruženja samo kada je to zaista neophodno
- Posebno proveravati kako code execution i data analysis okruženja tretiraju izlazne kanale kao što je DNS
- Pratiti bezbednosna obaveštenja dobavljača AI platformi i brzo reagovati na zakrpe
- Ograničiti upotrebu neproverenih promptova i Custom GPT rešenja u radu sa poverljivim podacima
- U internim procenama AI rizika uključiti i infrastrukturne protokole, ne samo aplikativni sloj