Zabrana Anthropica otkriva koliko je teško izbaciti AI iz sistema
CSO Online piše da bi zabrana Anthropica na Pentagonovim sistemima mogla da postane prvi ozbiljan primer uklanjanja jedne AI tehnologije iz čitavog lanca dobavljača i korisnika. Problem je u tome što većina organizacija nema potpun pregled gde se AI modeli zaista koriste: kroz API-je, interne aplikacije, developer alate ili posredno kroz treće strane. Tekst pokazuje da uklanjanje nije samo tehničko pitanje, već i pitanje ugovora, dokazivanja usklađenosti, zamene modela i razumevanja zavisnosti koje su često skrivene.
Ovo je važna praktična lekcija za firme koje već koriste generativni AI bez jasnog popisa i pravila. Ako regulator, kupac ili država sutra zatraže da se određeni model ukloni, mnoge organizacije neće znati ni gde da počnu. Rizik više nije samo u tome koji model koristite, već da li uopšte znate gde je ugrađen i kako da ga bezbedno zamenite.
- Napraviti pregled gde se u firmi koriste AI modeli, API-jevi, agenti, plugini i alati trećih strana
- Uvesti obavezu da razvojni timovi evidentiraju koji se modeli i servisi ugrađuju u proizvode i interne procese
- Tražiti od dobavljača veću transparentnost o AI komponentama i njihovim zavisnostima
- Pripremiti plan zamene modela pre nego što dođe do regulatornog ili ugovornog zahteva
- Ne svoditi AI governance na nabavku alata, već ga vezati za upravljanje rizikom, testiranje i stalni nadzor