Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
OpenAI навчає вас безпечному використанню Codex: межі пісочниці, автоматичне схвалення, безпечна класифікація, повна рамкова структура розгортання для підприємств
OpenAI оприлюднила внутрішню інформацію про безпечне розгортання власного AI-коду代理 Codex, основна стратегія — «обмеження виконання у пісочниці + автоматичне схвалення низькоризикових дій + AI безпекова класифікація та обробка сповіщень», що дозволяє підвищити ефективність розробки та одночасно контролювати безпеку підприємства.
(Попередній огляд: значне оновлення OpenAI Codex: управління з бекенду Mac, вбудований браузер, генерація зображень, запуск 111 нових плагінів)
(Додатковий контекст: OpenAI запускає інженерського代理 Codex! AI для написання функцій, виправлення багів, запуску тестів)
Цей огляд
Перемикач
OpenAI цього тижня оприлюднила внутрішній звіт про розгортання у компанії, що описує, як команда безпеки виконує Codex у виробничому середовищі. Це реальний запис операцій, від налаштувань пісочниці до класифікації сповіщень, що демонструє, які рівні безпеки потрібно враховувати при впровадженні AI代理 у великій організації.
Визначення меж пісочниці, механізм схвалення — коли зупинитись
У офіційному оголошенні OpenAI зазначає, що основний принцип розгортання Codex — один: забезпечити, щоб代理 залишався ефективним у чітко визначених технічних межах, низькоризикові дії не переривали роботу користувача, а високоризикові — зупинялися для ручної перевірки.
Після реалізації цього принципу він розділяється на два доповнювальні механізми: пісочницю та стратегію схвалення.
Пісочниця відповідає за визначення простору виконання Codex, включаючи дозволені шляхи запису, чи дозволено зовнішнє підключення до мережі, які системні каталоги захищені. Дії поза межами пісочниці — потребують схвалення. Користувач може одноразово затвердити конкретну операцію або дозволити автоматичне виконання подібних дій у межах сесії.
Для щоденних рутинних операцій OpenAI увімкнула «автоматичний режим перевірки» (Auto-review mode). Ця функція передає заплановані дії Codex разом із контекстом останніх операцій до «автоматичного під代理 схвалення». Якщо дія вважається низькоризиковою, вона виконується автоматично, не перериваючи робочий процес; якщо ж ризик високий або є потенційні несподівані наслідки — вона підвищується до ручної перевірки.
Логіка мережевого контролю аналогічна. Codex не має відкритого зовнішнього доступу, OpenAI підтримує список дозволених доменів, які потрібні для нормальної роботи Codex. Доменам, що не входять до списку, за замовчуванням заборонено доступ, а при зустрічі незнайомого домену активується механізм схвалення.
Аутентифікація також включена до системи контролю. CLI та MCP OAuth-токени зберігаються у безпечному сховищі системи, вхід у систему здійснюється через корпоративний Workspace ChatGPT, а дії Codex логуються у платформі відповідності ChatGPT Enterprise, що дозволяє команді безпеки переглядати їх у єдиному інтерфейсі.
Які команди не потребують схвалення, які блокуються
OpenAI не вважає всі Shell-команди однаково ризикованими, а створює багаторівневі правила. Безпечні команди, що часто використовуються інженерами, дозволені для безпосереднього виконання поза пісочницею без схвалення. Високоризикові команди — блокуються або вимагають схвалення.
Ці правила працюють у три рівні, що накладаються один на одного:
Ця архітектура дозволяє OpenAI підтримувати єдину базову політику для всієї компанії, одночасно тестуючи різні конфігурації для команд, груп користувачів або середовищ. Ті самі налаштування застосовуються до застосунків Codex на робочому столі, CLI та розширень IDE.
Це прямо контрастує з дослідженнями, які показують, що код, згенерований AI, має на 57% більше вразливостей, ніж написаний вручну. Також цього року було виявлено серйозну уразливість CVSS 9.6 у GitHub Copilot (CVE-2025-53773), що дозволяє через підказки виконати віддалений код.
Ці дані свідчать, що без багаторівневої системи контролю ризики при використанні AI-код代理 можуть бути значно вищими за очікувані. OpenAI вирішила закодувати контроль у конфігураційних налаштуваннях, а не покладатися на внутрішню логіку AI, щоб правила виконувалися як технічний факт, а не як операційна звичка.
AI класифікація безпеки代理
У офіційному оголошенні OpenAI підкреслює, що навіть за найкращого контролю безпеки, після розгортання потрібна видимість. Традиційні журнали безпеки можуть відповісти на питання «що сталося», наприклад, запуск програми, зміна файлу, спроба підключення до мережі. Але справжнє, що потрібно безпеці — зрозуміти «чому Codex зробив так» і «чи відповідає це намірам користувача».
OpenAI дозволила Codex підтримувати логування через OpenTelemetry, що фіксує: підказки користувача, рішення щодо схвалення інструментів, результати роботи інструментів, використання MCP-сервера, дозволені або заборонені мережеві запити. Корпоративні та освітні клієнти можуть отримувати ці логи через платформу відповідності OpenAI.
Ще важливіше, що внутрішньо OpenAI інтегрувала ці логи у «AI безпековий класифікатор». Коли точкові інструменти виявляють підозрілі дії Codex і генерують сповіщення, цей класифікатор автоматично витягує відповідні логи, відновлює початковий запит, активність інструментів, рішення щодо схвалення, результати та мережеву політику, формує аналітичний звіт і передає його команді безпеки для аналізу, допомагаючи визначити, чи це нормальна поведінка代理, безпечна помилка або серйозне інцидентне порушення.
Ці ж дані використовуються для внутрішнього аналізу операцій: відстеження трендів впровадження, визначення найчастіше використовуваних інструментів і MCP-серверів, оцінки частоти блокувань і спрацьовувань мережевих ізоляцій, а також визначення, які компоненти потребують доопрацювання. Ці логи OpenTelemetry можна централізовано імпортувати до SIEM та систем відповідності.
Для організацій, що ще вагаються з безпекою AI代理, цей звіт — своєрідний чекліст: якщо у вашому розгортанні відсутні ці чотири рівні, ризик може бути саме там.