OpenAI a lansat noi măsuri de securitate pentru implementările enterprise ale modelului său AI Codex, inclusiv sandboxing, fluxuri de aprobare și monitorizare telemetrie. Modificările au scopul de a oferi companiilor un control mai strict asupra modului în care instrumentul de generare a codului este utilizat în mediile lor.
Trei straturi de securitate
Sandboxing-ul izolează execuția Codex de restul infrastructurii unei companii. Asta înseamnă că, chiar dacă modelul generează cod problematic, acesta nu poate ajunge la sisteme sau date critice. Fluxurile de aprobare adaugă o verificare umană: înainte ca orice cod generat de Codex să fie implementat, o persoană desemnată trebuie să îl aprobe. Monitorizarea telemetriei oferă administratorilor o vedere în timp real asupra a ceea ce face Codex, semnalând modele neobișnuite sau încercări de a ocoli controalele.
De ce aveau nevoie întreprinderile de asta
Instrumentele de generare a codului AI, precum Codex, pot accelera dezvoltarea, dar introduc și riscuri. Fără măsuri de protecție, un model ar putea genera cod care introduce vulnerabilități de securitate sau încalcă politicile interne. Întreprinderile au fost prudente în a lăsa AI-ul să scrie cod de producție fără supraveghere. Aceste trei măsuri abordează direct această prudență, creând o conductă sigură de la ieșirea modelului până la implementare.
Ce este disponibil acum
OpenAI spune că funcționalitățile sunt deja disponibile pentru clienții enterprise care folosesc Codex. Stratul de sandboxing rulează într-un mediu controlat, separat de rețeaua principală a companiei. Fluxurile de aprobare se integrează cu sistemele existente de ticketing sau CI/CD, astfel încât revizuirile de cod să aibă loc în mod natural. Datele de telemetrie alimentează tablouri de bord pe care echipele de securitate le pot monitoriza alături de alte instrumente. Compania nu a dezvăluit dacă aceste funcționalități vor fi disponibile și pentru utilizatorii non-enterprise.
Această mișcare urmează presiunii mai largi din industrie pentru ca furnizorii de AI să ofere securitate de nivel enterprise. Companiile care testau Codex în proiecte pilot limitate au acum o cale mai clară către adoptarea pe scară largă. Rămâne o întrebare deschisă dacă sandboxing-ul și porțile de aprobare vor încetini viteza pe care o promite Codex — una pe care fiecare client va trebui să o cântărească.




