OpenAI اقدامات امنیتی جدیدی را برای استقرارهای سازمانی مدل هوش مصنوعی Codex خود ارائه کرده است، از جمله سندباکس، فرآیندهای تأیید و پایش تلهمتری. این تغییرات هدف دارند کنترل محکمتری را بر نحوه استفاده از ابزار تولید کد در محیطهای داخلی سازمانها ارائه دهند.
سه لایه امنیتی
سندباکس اجرای Codex را از سایر زیرساختهای شرکت جدا میکند. این بدان معناست که حتی اگر مدل کدی مشکلساز تولید کند، به سیستمهای حیاتی یا دادهها دسترسی پیدا نخواهد کرد. فرآیندهای تأیید دروازهای انسانی اضافه میکنند: قبل از اجرای هر کدی که توسط Codex تولید شده است، یک نفر مجاز باید تأیید کند. پایش تلهمتری به مدیران امکان مشاهده بلادرنگ از اقدامات Codex را میدهد و الگوهای غیرعادی یا تلاشهای جهت دور زدن کنترلها را علامتگذاری میکند.
دلیل نیاز سازمانها به این امکانات
ابزارهای تولید کد هوش مصنوعی مانند Codex میتوانند توسعه را تسریع کنند، اما ریسکهایی نیز به همراه دارند. بدون ایمنیهای لازم، ممکن است مدل کدی تولید کند که آسیبپذیریهای امنیتی ایجاد کند یا سیاستهای داخلی را نقض کند. سازمانها در مورد اجازه دادن به هوش مصنوعی برای نوشتن کد تولیدی بدون نظارت احتیاط کردهاند. این سه اقدام با ایجاد یک خط لوله امن از خروجی مدل تا استقرار، مستقیماً این احتیاط را برطرف میکنند.
امکانات موجود در حال حاضر
OpenAI اعلام کرده است که این ویژگیها اکنون برای مشتریان سازمانی استفادهکننده از Codex در دسترس هستند. لایه سندباکس در یک محیط کنترلشده مجزا از شبکه اصلی شرکت اجرا میشود. فرآیندهای تأیید با سیستمهای بلیطدهی یا CI/CD موجود ادغام شدهاند تا بازبینی کدها به طور طبیعی انجام شود. دادههای تلهمتری به داشبوردهایی وارد میشوند که تیمهای امنیتی میتوانند آنها را همراه با سایر ابزارها نظارت کنند. شرکت افشا نکرده است که آیا این ویژگیها در نهایت برای کاربران غیرسازمانی نیز در دسترس قرار خواهند گرفت.
این اقدام در پی فشار عمومی صنعت برای ارائه امنیت سطح سازمانی توسط فروشندگان هوش مصنوعی صورت گرفته است. شرکتهایی که Codex را در آزمایشهای محدود تست میکردند، اکنون مسیر روشنتری برای پذیرش گستردهتر دارند. اینکه آیا سندباکس و دروازههای تأیید سرعتی که Codex قول داده است را کند میکنند، همچنان یک سؤال باز است — سؤالی که هر مشتری باید آن را مدنظر قرار دهد.



