Codex від OpenAI: повний гід 2026

Updated:
Codex від OpenAI: повний гід 2026

OpenAI Codex у 2026 році — це не той інструмент, про який ви, можливо, читали кілька років тому. Оригінальний Codex API (2021–2023) був моделлю для автодоповнення коду на базі GPT-3, яка живила ранні версії GitHub Copilot. OpenAI закрила той API у березні 2023 року. Те, що існує сьогодні — принципово інший продукт.

Сучасний Codex — це повноцінний coding agent, запущений у квітні 2025 року. Він не доповнює код у міру введення. Він читає ваш репозиторій, планує задачу, редагує файли, запускає тести і пропонує pull request — самостійно. За даними Sam Altman, станом на квітень 2026 року Codex має понад 4 мільйони weekly active users.

Цей гід — центральна точка навігації по всіх матеріалах про Codex: від огляду конкретних моделей до практичних гідів по CLI, Skill System і впливу на ринок праці. Якщо ви тільки знайомитесь з інструментом — почніть з розділу «З чого почати». Якщо вибираєте модель — одразу до порівняльної таблиці.

Коротко: Codex у 2026 — це сімейство з 5 моделей, 4 поверхонь роботи, open-source CLI на Rust і система Skills для автоматизації повторюваних задач. Це не конкурент ChatGPT — це окремий інструмент для розробників.

📌 Розділ 1. Що таке Codex у 2026 — і чому це не те, що ви думаєте

Коротка відповідь: OpenAI Codex у 2026 — це agentic coding platform, а не модель автодоповнення. Він отримує задачу, самостійно виконує її в ізольованому середовищі і повертає результат на рев'ю.

Найпоширеніша помилка при пошуку інформації про Codex — змішування двох абсолютно різних продуктів з однаковою назвою.

Стара версія (2021–2023) була окремим API на базі GPT-3, оптимізованим під генерацію коду. Саме на ній працював ранній GitHub Copilot. OpenAI оголосила про закриття того API у березні 2023 року — відтоді GitHub Copilot перейшов на GPT-4o та інші моделі.

Новий Codex — запущений як research preview у травні 2025, general availability у жовтні 2025 — працює за іншим принципом. Станом на квітень 2026 він має 4 млн weekly active users (дані Sam Altman). Ось як це виглядає на практиці:

  • Ви описуєте задачу: «рефактори цей модуль», «додай тести для цього класу», «знайди причину цього багу в production».
  • Codex запускається в ізольованому середовищі, клонує репозиторій або працює локально через CLI, читає код, планує дії.
  • Виконує задачу: редагує файли, запускає команди, перевіряє результат.
  • Повертає diff або pull request на ваш рев'ю — без автоматичного мержу.

Відмінність від ChatGPT принципова: ChatGPT відповідає на питання про код. Codex діє з кодом. Він не «радить як написати функцію» — він пише її, запускає тести і показує результат.

З мого досвіду роботи з інструментом на проєкті (Spring Boot + PostgreSQL), ця різниця відчувається одразу. Замість того щоб копіювати код з відповіді в IDE, ти просто переглядаєш готовий diff і вирішуєш — прийняти чи скоригувати. Але є важливий практичний нюанс: токени витрачаються швидко — особливо на довгих autonomous задачах. Одна реалізація фічі на кілька модулів може з'їсти суттєву частину денного ліміту. Якщо у вас базовий план або ви тільки тестуєте — це треба враховувати і починати з задач меншого scope.

Висновок розділу: Якщо ви читали щось про «OpenAI Codex» до 2024 року — це інший продукт з тією ж назвою. Нинішній Codex — це coding agent з 4 млн активних розробників щотижня, який вже змінює те, як виглядає щоденна робота з кодом.

📌 Розділ 2. Де працює Codex — всі поверхні у 2026

Коротка відповідь: Codex доступний через 5 поверхонь — web, CLI, desktop app, VS Code і JetBrains. Всі вони спільно використовують одні й ті ж налаштування, AGENTS.md і Skills.

Важливий нюанс: за даними офіційної документації, CLI і IDE extension використовують той самий config.toml — налаштування, зроблені в одному місці, автоматично застосовуються в іншому.

chatgpt.com/codex — web agent

Хмарний варіант: ви описуєте задачу у браузері, Codex запускається в ізольованому OpenAI-контейнері, клонує репозиторій і повертає результат. Підходить для async-делегування: дали задачу — зайнялись іншим — прийшли перевірити PR. Тут же доступний Codex Security — агент для сканування репозиторіїв на вразливості.

Codex CLI — термінал

Open-source, написаний на Rust, доступний на macOS, Windows і Linux. Встановлюється через npm:

npm install -g @openai/codex

Запускається в поточній директорії та взаємодіє з локальними файлами. Apache 2.0 ліцензія — можна перевірити код і форкнути. Підтримує Windows нативно через PowerShell із Windows sandbox або WSL2 для Linux-середовища.

Codex App — desktop

Повноцінний desktop-додаток. macOS вийшов у лютому 2026 разом з GPT-5.3-Codex. Windows-версія вийшла пізніше і доступна через Microsoft Store. App дозволяє керувати кількома агентами паралельно через worktrees — ізольовані копії репозиторію на різних гілках. Зручна функція: вбудований браузер для візуальної ітерації по локальному dev-серверу прямо всередині додатку.

VS Code extension

Інтегрується безпосередньо в редактор. Model picker у composer дозволяє обирати модель (GPT-5.5, GPT-5.4, Codex-Spark тощо) прямо під час написання промпту. Підтримує slash-команди, Skills і перегляд diff без виходу з редактора.

JetBrains extension

Актуально для Java, Kotlin і Scala розробників. Встановлюється через JetBrains Marketplace в IntelliJ IDEA, PyCharm, WebStorm та інших IDE лінійки. Функціонально ідентична VS Code-версії: той самий model picker, ті самі Skills, той самий config.toml. Для Spring Boot розробників — можливість запускати Codex прямо з IDE без переключення в термінал, що зберігає контекст поточного проєкту.

Яку поверхню обрати — коротка таблиця

Поверхня Коли використовувати Головна перевага
Web (chatgpt.com/codex) Async-делегування, задачі на годину+ Не займає ресурси машини
CLI Активна робота в терміналі, скрипти, CI Open-source, максимальний контроль
Codex App Паралельні агенти, worktrees, вбудований браузер Найзручніший UI для multi-agent
VS Code extension Щоденна розробка в VS Code Seamless інтеграція без виходу з редактора
JetBrains extension Java / Kotlin / Spring Boot проєкти Не треба переключатись в термінал

Висновок: Всі поверхні — це один Codex з одними налаштуваннями. Різниця лише в тому, де зручніше працювати під конкретну задачу. Більшість розробників використовують дві: CLI або App для активної роботи і web для фонових задач.

💼 Розділ 3. Всі Codex-моделі у 2026 — порівняльна таблиця

Коротка відповідь: Станом на травень 2026, в екосистемі Codex доступно 5 актуальних моделей плюс legacy-варіант для API. Кожна заточена під конкретний тип задач — і вибір між ними суттєво впливає на результат.

Дані актуальні на травень 2026. Таблицю складено на основі офіційної сторінки моделей Codex.
Модель API model string Дата Контекст Для чого Доступ
GPT-5.5 gpt-5.5 ¹ 23 квіт. 2026 Найсильніша модель в Codex: agentic coding, computer use, research Plus / Pro / Business / Enterprise
GPT-5.4 gpt-5.4 Березень 2026 1M токенів Coding + reasoning + tool use, великі репозиторії Plus / Pro / Business
GPT-5.4 mini gpt-5.4-mini Квітень 2026 Швидкі задачі, subagents, розвідка великих файлів Всі платні плани
GPT-5.3-Codex gpt-5.3-codex 5 лют. 2026 400k токенів Складні довгі задачі, autonomous work, глибокий reasoning Pro / Business / Enterprise
GPT-5.3-Codex-Spark gpt-5.3-codex-spark 12 лют. 2026 128k токенів Real-time інтерактивний кодинг, >1000 тпс, швидкі ітерації Pro (research preview)
gpt-5.2-codex (legacy) gpt-5.2-codex API-key workflows — єдина модель доступна через API-key auth API

¹ GPT-5.5 доступний в Codex тільки через ChatGPT OAuth-авторизацію. За офіційною документацією, для API-key workflows використовуйте gpt-5.4 або gpt-5.2-codex.

GPT-5.3-Codex-Spark — окрема тема: він працює на Cerebras Wafer-Scale Engine (не GPU), що забезпечує >1000 токенів/сек. Має окремий rate limit — не рахується в стандартний Codex-ліміт. Детально — у статті про Codex-Spark.

Висновок: Таблиця виглядає складно, але логіка проста: якщо є GPT-5.5 у вашому акаунті — використовуйте його. Немає — GPT-5.4. Для API-інтеграцій — gpt-5.2-codex поки що єдиний стабільний варіант. Spark — окремий інструмент для real-time роботи, а не заміна основної моделі.

Codex від OpenAI: повний гід 2026

💼 Розділ 4. Яку Codex-модель обрати для своїх задач

Коротка відповідь: Вибір моделі залежить від типу задачі, а не від «що новіше». GPT-5.5 найсильніша, але GPT-5.3-Codex-Spark виграє коли важливий темп, а GPT-5.4 — єдина з 1M контекстом для великих репозиторіїв.

Офіційна рекомендація OpenAI: «Для більшості задач починайте з gpt-5.5, якщо він доступний у вашому model picker. Якщо недоступний — використовуйте gpt-5.4».

🔴 Активний дебаг / швидкий рефакторинг / code review в реальному часі

→ GPT-5.3-Codex-Spark

Відповіді майже миттєві (>1000 токенів/сек на Cerebras), можна переривати і коригувати прямо в процесі виконання. Spark не запускає тести автоматично і робить мінімальні точкові правки — саме те, що потрібно коли ти в активному діалозі з кодом і не хочеш чекати повного циклу. Обмеження: 128k контекст (не підходить для великих файлів), text-only, research preview з окремим rate limit.

Типові задачі: виправити конкретний баг з відомим stack trace, переписати один метод, швидко перевірити кілька варіантів реалізації.

🟡 Автономна реалізація фічі (від години до кількох днів)

→ GPT-5.3-Codex або GPT-5.5

GPT-5.3-Codex — спеціалізована coding модель з 400k контекстом і глибоким reasoning для software engineering задач. GPT-5.5 сильніша в плануванні і дає кращий результат на задачах де потрібно приймати архітектурні рішення в процесі. Обидві зберігають контекст без втрат на довгих сесіях і підтримують mid-task steering — можна вносити корективи не скидаючи весь прогрес. Якщо GPT-5.5 доступний у вашому акаунті — беріть його.

Типові задачі: реалізація нового endpoint зі всіма шарами (controller → service → repository), рефакторинг модуля з кількома залежностями, написання повного покриття тестами.

🟠 Великий legacy-репозиторій або аналіз великих файлів

→ GPT-5.4 (єдина модель з 1M токенів контексту)

1M токенів — це приблизно 25 000–30 000 рядків коду в одному запиті. GPT-5.4 єдина модель в екосистемі Codex яка може обробити великий репозиторій цілком без chunking або RAG. Важливо: GPT-5.5 наразі не має офіційно підтвердженого 1M контексту в Codex — для задач де розмір репозиторію критичний, GPT-5.4 надійніший вибір.

Типові задачі: аналіз залежностей у великому Spring Boot монорепо, пошук всіх місць використання deprecated API, аудит безпеки по всьому кодбейсу.

🟢 Subagents і паралельні фонові задачі

→ GPT-5.4 mini

Швидший і значно дешевший за токенами — ідеальний для задач де не потрібен глибокий reasoning: розвідка файлів, аналіз логів, перевірка типових endpoint'ів, обробка підзадач у multi-agent workflow. Головний агент (GPT-5.4 або GPT-5.5) координує роботу, mini-агенти виконують конкретні обмежені підзадачі паралельно.

Типові задачі: паралельна перевірка 10 endpoint'ів на відповідність специфікації, збір метрик з кількох модулів одночасно, генерація boilerplate для нових сутностей.

⚫ API-key інтеграція у власний додаток

gpt-5.2-codex (поки що єдиний варіант)

GPT-5.5 і GPT-5.3-Codex-Spark недоступні через API-key auth — тільки через ChatGPT OAuth. Для власних інтеграцій через API використовуйте gpt-5.2-codex як стабільний варіант або gpt-5.4 якщо він вже доступний у вашому API-акаунті. Статус доступності регулярно оновлюється в офіційному changelog.

Типові задачі: автоматизований code review в CI/CD pipeline, власний coding assistant поверх Codex API, інтеграція з внутрішніми інструментами команди.

З мого досвіду — як це виглядає на практиці

  • Spark — коли треба швидко перебрати варіанти промпту для RAG-пошуку або виправити конкретний NullPointerException з відомим stack trace. Відповідь за секунди, не потрібно чекати.
  • GPT-5.4 — коли аналізую Spring Boot проєкт цілком: всі сервіси, репозиторії і конфігурацію в одному контексті без втрат.
  • GPT-5.4 mini — для subagents що паралельно перевіряють типові REST endpoint'и або генерують тести для нових entity.
  • GPT-5.5 — для задач де потрібне складне планування: рефакторинг з впливом на кілька модулів або реалізація нової фічі з нуля.

Висновок: Не фіксуйтесь на одній моделі — це найпоширеніша помилка початківців з Codex. Ефективний workflow передбачає комбінацію: GPT-5.5 або GPT-5.4 для складних задач, Spark для швидких ітерацій, mini для subagents. Саме так це й задумано OpenAI — як сімейство інструментів, а не конкурентів між собою.

📌 Розділ 5. Як Codex відрізняється від GitHub Copilot і Claude Code

Коротка відповідь: Це три різні класи інструментів. Copilot — IDE-асистент у реальному часі. Claude Code — термінальний агент що залишає вас «в петлі». Codex — платформа для async-делегування і паралельних агентів.

Більшість senior-розробників у 2026 використовують два інструменти одночасно. Питання не «що краще», а «що для якої задачі».
Параметр Codex Claude Code GitHub Copilot
Основна модель GPT-5.5 / GPT-5.3-Codex Claude Opus 4.6 / Sonnet 4.6 GPT-5.4 / Claude / Gemini (залежно від плану)
Режим роботи Async delegation + real-time (Spark) Термінал, тісний діалог з розробником IDE autocomplete + agent mode
SWE-bench Verified 64.7% 80.8%
Terminal-Bench 2.0 77.3% 65.4%
Контекст до 1M (GPT-5.4) до 1M (Claude Opus 4.6) до 128k
CLI open-source ✅ Apache 2.0
Ціна (від) $20/міс (Plus) $20/міс $10/міс
Де живе код при виконанні OpenAI-контейнер (cloud) або локально (CLI) Локально на вашій машині Локально в IDE

Де Codex виграє

Паралельні агенти через worktrees — унікальна функція якої немає у Claude Code і Copilot: кілька агентів одночасно в ізольованих гілках без конфліктів. Skills-система (agentskills.io) дозволяє упакувати повторювані workflow в один файл і шарити між командою. GitHub-інтеграція нативна: Codex відкриває PR, відповідає на коментарі рев'ю, запускається з GitHub Issues через @codex. Terminal-Bench 2.0 — 77.3% проти 65.4% у Claude Code: Codex краще справляється зі структурованими terminal-задачами і тікет-орієнтованою роботою.

Де Claude Code виграє

SWE-bench Verified — 80.8% проти 64.7%: Claude Code сильніший на складних multi-file задачах де важливе глибоке розуміння codebase. Модель постійно «в петлі» з розробником — ви бачите кожен крок у реальному часі і можете втрутитись. Приватність: Claude Code надсилає тільки розмову в Anthropic API, файли залишаються на вашій машині. Codex cloud клонує репозиторій в OpenAI-контейнер — важливий нюанс для команд з жорсткими вимогами до локалізації коду.

Де GitHub Copilot виграє

Ціна — $10/міс за базовий план, найдешевший варіант у категорії. Inline autocomplete в IDE — те для чого Copilot і створювався: пропозиції прямо під час набору. Мультимодельність з коробки: Pro-план підтримує GPT-5.4, Claude Opus 4.6, Gemini на вибір без додаткових підписок. Для команд що вже на GitHub Enterprise — Copilot інтегрується в існуючий workflow без нових інструментів.

Що використовувати разом

Найпоширеніший stack серед senior-розробників у 2026 — це не один інструмент, а комбінація. Два варіанти що реально зустрічаються:

  • Copilot + Codex: Copilot для щоденного inline autocomplete в IDE, Codex для делегування більших задач в фоні поки ви займаєтесь іншим.
  • Claude Code + Codex: Claude Code для складного reasoning і архітектурних рішень «в парі», Codex для паралельного виконання рутинних задач через worktrees.

З мого досвіду : я використовую Codex CLI для автономних задач (написати тести, згенерувати boilerplate для нових Spring-сутностей) і Claude Code коли задача вимагає глибокого розуміння контексту і нестандартних рішень. Copilot — для швидкого autocomplete у JetBrains без перемикання.

Повне порівняння з реальними кейсами і бенчмарками — в окремій статті (скоро).

Висновок розділу: Codex, Claude Code і Copilot — не замінники одне одного, а різні рівні автоматизації. Copilot прискорює набір коду. Claude Code допомагає думати над складними задачами. Codex виконує задачі поки ви займаєтесь іншим. Найефективніший workflow у 2026 — комбінація двох з трьох.

📌 Розділ 6. Огляд усіх статей — навігація по Codex Hub

Нижче — всі матеріали WebsCraft про Codex. Кожна стаття закриває конкретний аспект екосистеми і містить розділ з особистим досвідом автора.

✅ GPT-5.3-Codex — детальний огляд

Перша модель нового покоління: бенчмарки (SWE-Bench Pro 56.8%, Terminal-Bench 77.3%), агентні можливості, Skill System, самовдосконалення моделі, практичний досвід автора, ризики кібербезпеки. 17 000+ переглядів.

→ Читати статтю

🔥 GPT-5.3-Codex-Spark: real-time кодинг у 2026

Перша real-time coding модель від OpenAI: >1000 токенів/сек на Cerebras Wafer-Scale Engine, 128k контекст, як відрізняється від звичайного Codex і коли Spark виграє. Включає порівняльну таблицю, практичні сценарії і розбір обмежень research preview.

→ Скоро

🔥 GPT-5.5 в Codex: що змінилось для розробників

Найсильніша модель в Codex на травень 2026: token efficiency (менше токенів на ті ж задачі), практичне порівняння GPT-5.4 vs GPT-5.5 на реальних задачах, як перейти через model picker, нюанси доступу через API-key.

→ Скоро

GPT-5.4 vs GPT-5.3-Codex: в чому різниця і що обрати

Парадокс «новіше не завжди краще для кодингу»: GPT-5.4 має 1M контекст але GPT-5.3-Codex залишається сильнішим для чистих software engineering задач через спеціалізований fine-tuning. Decision tree для вибору під конкретний сценарій.

→ Скоро

Codex CLI: практичний гід 2026

Від встановлення до advanced workflows: slash-команди (/review, /fork, /compact), AGENTS.md для постійних інструкцій, паралельні агенти через worktrees, MCP інтеграція, dual-window rate limits і як їх моніторити.

→ Скоро

Codex Skill System: що це і як використовувати

SKILL.md формат і agentskills.io стандарт: офіційні Skills від OpenAI (Figma implement-design, Linear, cloud deploy, imagegen), як написати власний skill для Spring Boot проєкту, Automations для фонових задач за розкладом.

→ Скоро

Замінить GPT Codex junior-розробників у 2026 році?

Аналіз без хайпу: що Codex автоматизує добре (boilerplate, тести, дебаг з відомим stack trace), де він стабільно слабкий (legacy з неявними бізнес-правилами, архітектурні рішення), реальні дані з ринку праці і які навички стають критичними в епоху coding agents.

→ Скоро

💼 Розділ 7. З чого почати — практичні кроки для розробника

Коротка відповідь: Найефективніший спосіб почати — CLI в Git-репозиторії з першою реальною задачею, а не з туторіалом. Codex достатньо розумний щоб бути корисним навіть з мінімальним налаштуванням.

Офіційна порада OpenAI: «Codex достатньо сильний щоб бути корисним навіть коли ваш промпт недосконалий. Чіткий промпт не обов'язковий для отримання цінності, але робить результати надійнішими».

Крок 1. Визначте ваш план і доступні моделі

Codex включений у ChatGPT Plus ($20/міс), Pro ($200/міс), Business ($30/користувач/міс) і Enterprise. Перевірте що саме включено у ваш план — ліміти суттєво відрізняються. Plus дає базовий ліміт використання, Pro — значно більше. Якщо ви вже платите за ChatGPT Plus, Codex CLI доступний одразу без додаткової оплати.

Перевірити поточний ліміт і залишок можна на chatgpt.com/codex/settings/usage або командою /status в активному CLI-треді. Codex використовує dual-window систему: 5-годинне і тижневе вікно одночасно — коли вичерпується одне, доступ тимчасово блокується.

Крок 2. Встановіть Codex

Є три способи — обирайте зручний:

  • Codex App для macOS — завантажити з офіційного сайту OpenAI. Встановлюється як звичайний .dmg, не потребує npm або Homebrew. Найпростіший варіант для початку — саме так я й починав на Mac M1.
  • CLI через npm (потрібен Node.js 18+):
    npm install -g @openai/codex
  • CLI через Homebrew (macOS):
    brew install --cask codex

Підтримувані платформи: macOS, Linux, Windows (PowerShell з Windows sandbox або WSL2). Повна документація — на developers.openai.com/codex/cli.

Перший запуск попросить авторизуватись — обирайте ChatGPT OAuth (рекомендовано, дає доступ до GPT-5.5) або API key (тільки gpt-5.2-codex). Після авторизації credentials зберігаються локально.

Крок 3. Запустіть у Git-репозиторії — це критично

Без Git ви не зможете переглянути або відкатити зміни Codex. Це не рекомендація — це базова безпека роботи з агентом що редагує файли. Перед першим запуском:

git init          # якщо директорія ще не є Git-репозиторієм
git add -A
git commit -m "checkpoint before codex"
codex             # запуск інтерактивного TUI

Зробіть commit перед кожною нетривіальною задачею — так ви завжди зможете зробити git diff щоб побачити що саме змінив Codex, або git checkout . щоб відкатити все одразу.

Крок 4. Налаштуйте AGENTS.md

AGENTS.md — це файл в корені репозиторію з постійними інструкціями які Codex читає на кожному запуску. Він замінює десятки повторюваних уточнень у промптах. Без нього Codex не знає ваш стиль коду, заборонені дії і тестову стратегію — і буде вгадувати.

Мінімальний старт для Spring Boot проєкту:

# AGENTS.md
Ти працюєш з Spring Boot проєктом на Java 21.
Стек: Spring Boot 3, PostgreSQL, Hibernate, Maven.
Не модифікуй тести без явного дозволу в промпті.
Перед будь-якими змінами запускай: mvn test
Дотримуйся code style який вже є в проєкті — перевір існуючі класи.
Не додавай залежності в pom.xml без підтвердження.
При рефакторингу зберігай існуючі public API методів.

Детально про AGENTS.md і best practices — у статті про Codex CLI (скоро).

Крок 5. Перша реальна задача — не demo

Не починайте з «напиши мені todo-app». Це нічого не покаже про реальну цінність інструменту. Дайте Codex задачу з вашого поточного проєкту. Хороші перші задачі:

  • «Напиши unit-тести для класу UserService з покриттям основних методів»
  • «Зрефактори цей метод — він занадто довгий, розбий на приватні методи»
  • «Знайди всі місця де ми не обробляємо Optional.empty() і виправ»
  • «Додай валідацію для DTO класу CreateOrderRequest»

Такі задачі мають чіткий scope, вимірюваний результат і дають зрозуміти чи Codex розуміє ваш codebase. Переглядайте diff перед тим як приймати зміни — завжди.

Крок 6. Оберіть модель під задачу

За замовчуванням Codex вибере рекомендовану модель — зазвичай GPT-5.5 або GPT-5.4 залежно від rollout у вашому акаунті. Змінити модель можна командою /model в активному треді або прапором при запуску:

codex --model gpt-5.3-codex-spark   # для real-time роботи
codex --model gpt-5.4               # якщо потрібен 1M контекст

Детальний розбір коли яку модель обирати — у Розділі 4 вище.

З мого досвіду — перший тиждень

На проєкті WebsCraft (Spring Boot + PostgreSQL + RAG pipeline) перший тиждень з Codex — це час калібрування. Ви вчитесь формулювати задачі так щоб модель не вимагала 3-4 уточнень. Два висновки з практики:

  • AGENTS.md економить більше часу ніж здається. Після того як я додав туди специфіку Spring Boot стеку і заборону змінювати тести — кількість ітерацій на типову задачу скоротилась вдвічі.
  • Починайте з малого scope. Перші задачі — один клас, один метод, один тест. Коли зрозумієте як Codex «думає» у вашому проєкті — розширюйте scope до модулів і фіч.

💼 Розділ 8. Ліміти, ціни і плани у 2026

Коротка відповідь: Codex включений у ChatGPT плани без окремої підписки. Ліміти прив'язані до плану і оновлюються за sliding window (5 годин + тиждень одночасно).

Офіційна сторінка цін Codex оновлена 2 квітня 2026 — ціноутворення перейшло з per-message на token-based.

Плани і ліміти

План Ціна Codex ліміт (відносно Plus) Codex-Spark
Free / Go $0 / невеликий Тимчасовий доступ (обмежений)
Plus $20/міс Базовий (1x)
Pro $100 $100/міс 5x Plus (10x до 31 травня 2026) ✅ research preview
Pro $200 $200/міс 20x Plus (25x 5h-ліміт до 31 травня 2026) ✅ research preview
Business $30/user/міс Workspace credits — команда ділить спільний пул токенів
Enterprise Custom Custom, RBAC, SSO, SOC 2 ❌ (поки)

За офіційними даними OpenAI, ліміти побудовані на dual-window системі: 5-годинне і тижневе вікно, обидва працюють одночасно. Як тільки одне з двох вичерпується — доступ тимчасово обмежується до поновлення відповідного вікна.

Перевірити залишок лімітів:

GPT-5.3-Codex-Spark має окремий rate limit — використання Spark не рахується в загальний Codex-ліміт вашого плану. Під час research preview можливі черги при пікових навантаженнях.

Який план обрати

З практичної точки зору: Plus ($20) достатній якщо ви тільки починаєте і використовуєте Codex для окремих задач кілька разів на день. Ліміт вичерпується швидше ніж здається при активній роботі — особливо на довгих autonomous задачах. Pro ($100) виправданий якщо Codex стає частиною щоденного workflow: 5x більше токенів і доступ до Codex-Spark. Business — для команд де важливо ділити ліміти між розробниками і мати централізований контроль через workspace credits, а не окремі підписки.

API-key варіант

Якщо ви інтегруєте Codex у власний додаток через API-key — за поточною документацією доступні gpt-5.2-codex і gpt-5.4. GPT-5.5 через API-key поки недоступний — тільки через ChatGPT OAuth. Перейти в API-key режим в CLI:

preferred_auth_method = "apikey"  # в config.toml

Питання безпеки

За офіційною документацією, Codex використовує sandbox на рівні ОС (CLI) або ізольований OpenAI-контейнер (cloud): мережевий доступ вимкнений за замовчуванням, права запису обмежені поточним workspace, всі дії що виходять за межі sandbox потребують явного підтвердження. Для команд з жорсткими вимогами до локалізації коду — Codex CLI (локальне виконання) безпечніший за cloud-варіант: репозиторій не клонується на сервери OpenAI.

З мого досвіду

Я починав з Plus — для старту і перших тестів проєкті цього вистачає. Ліміт починає відчуватись коли задачі стають довшими: autonomous реалізація фічі на кілька модулів може з'їсти значну частину 5-годинного вікна за один раз. Якщо плануєте використовувати Codex як основний інструмент щодня — Pro окупається швидко. Головна порада: перевіряйте /status перед запуском довгої задачі, щоб не отримати обрив посередині виконання.

Висновок розділу: Ліміти Codex реальні і відчутні при активній роботі — плануйте план відповідно до інтенсивності використання. Dual-window система означає що навіть великий тижневий ліміт може вичерпатись за один інтенсивний день якщо 5-годинне вікно закінчиться.

❓ Часті питання (FAQ)

Як встановити Codex CLI і з чого почати?

Codex CLI — open-source термінальний coding agent від OpenAI, написаний на Rust. Найпростіший спосіб на Mac — завантажити Codex App з офіційного сайту як звичайний .dmg. Альтернатива через npm: npm install -g @openai/codex. Підтримує macOS, Windows і Linux. Авторизація через ChatGPT OAuth (рекомендовано) або API key. Перед першим запуском обов'язково ініціалізуйте Git-репозиторій — щоб мати змогу переглянути і відкатити зміни. Повна документація CLI →

Яку Codex-модель краще обрати для щоденної роботи у 2026?

Залежить від задачі — і це не маркетингова відмовка, а реальна різниця. Для більшості задач підходить GPT-5.5 (якщо доступний у вашому плані) або GPT-5.4. Для швидкого інтерактивного дебагу і рефакторингу — GPT-5.3-Codex-Spark (тільки Pro, research preview). Для великих репозиторіїв — GPT-5.4 з 1M контекстом. Для API-key інтеграцій — gpt-5.2-codex. Детальна decision tree з конкретними сценаріями — у розділі 4 цієї статті.

Чи входить Codex у мій план ChatGPT Plus?

Так. За офіційними даними OpenAI, Codex включений у Plus ($20/міс), Pro ($100 і $200/міс), Business і Enterprise плани без доплати. Обсяг використання залежить від плану — Plus дає базовий ліміт, Pro у 5–20 разів більше. Codex-Spark (research preview) — тільки для Pro. Поточний залишок лімітів перевіряйте на chatgpt.com/codex/settings/usage.

Чим Codex відрізняється від GitHub Copilot?

Це різні класи інструментів з різним принципом роботи. Copilot живе в IDE: autocomplete у редакторі, підказки в реальному часі, agent mode для окремих задач — ви весь час поруч. Codex — для делегування: описали задачу, Codex виконав в ізольованому середовищі, ви прийшли перевірити diff або PR. Різний тип задач, різний рівень залученості розробника. Більшість senior-розробників у 2026 використовують обидва одночасно. Детальне порівняння з бенчмарками — у розділі 5.

Чи безпечно давати Codex доступ до мого репозиторію?

Залежить від того який варіант Codex ви використовуєте. Codex CLI виконується локально з OS-level sandbox: мережа вимкнена за замовчуванням, запис обмежений поточним workspace, всі дії за межами sandbox вимагають явного підтвердження. Cloud-варіант (chatgpt.com/codex) клонує репозиторій в ізольований OpenAI-контейнер — код тимчасово знаходиться на серверах OpenAI. Якщо у вас жорсткі вимоги до локалізації коду — CLI безпечніший. Для enterprise рекомендується Business або Enterprise план з RBAC. І завжди: запускайте Codex тільки в Git-репозиторії — щоб будь-яку зміну можна було переглянути через git diff або відкатити через git checkout .

✅ Висновки

  • 🔹 OpenAI Codex у 2026 — це не модель автодоповнення коду, а повноцінний coding agent: він читає репозиторій, редагує файли, запускає тести і пропонує pull request самостійно.
  • 🔹 Екосистема Codex складається з п'яти актуальних моделей — від GPT-5.3-Codex-Spark для real-time кодингу до GPT-5.5 для найскладніших агентних задач. Вибір моделі залежить від типу задачі, а не від того, яка «новіша».
  • 🔹 Codex доступний через чотири поверхні: web agent, CLI, desktop app і IDE-розширення. Всі вони шарять одні налаштування — конфігурація зроблена один раз і працює скрізь.
  • 🔹 Порівняно з GitHub Copilot і Claude Code, Codex займає свою нішу: делегування задач з рев'ю результату, а не постійна робота в парі. Це різні підходи, а не конкуренція «хто кращий».
  • 🔹 З мого досвіду, Codex дає реальне прискорення на рутинних і прототипних задачах — але потребує чіткого делегування, Git-дисципліни і людського рев'ю результату. Без цього навіть найсильніша модель дасть середній результат.

Головна думка: Codex — це не заміна розробника і не чарівна кнопка. Це інструмент, який стає потужнішим пропорційно до того, наскільки добре ти вмієш формулювати задачі, налаштовувати середовище і перевіряти результат. У 2026 році саме це і є ключовою навичкою.

📚 Джерела

Останні статті

Читайте більше цікавих матеріалів

GPT-5.3-Codex-Spark: real-time кодинг у 2026 — що це і навіщо

GPT-5.3-Codex-Spark: real-time кодинг у 2026 — що це і навіщо

12 лютого 2026 року OpenAI випустила GPT-5.3-Codex-Spark — і більшість розробників одразу запитали одне й те саме: «Це новий додаток? Мені треба щось перевстановлювати?» Ні. Spark — це модель всередині Codex App яку ти вже маєш. Просто інша модель у model picker — але з принципово іншим принципом...

Codex від OpenAI: повний гід 2026

Codex від OpenAI: повний гід 2026

OpenAI Codex у 2026 році — це не той інструмент, про який ви, можливо, читали кілька років тому. Оригінальний Codex API (2021–2023) був моделлю для автодоповнення коду на базі GPT-3, яка живила ранні версії GitHub Copilot. OpenAI закрила той API у березні 2023 року. Те, що існує сьогодні —...

Ollama REST API: інтеграція у свій застосунок — Java, Python, JavaScript

Ollama REST API: інтеграція у свій застосунок — Java, Python, JavaScript

Ollama — це не тільки CLI-інструмент для запуску моделей у терміналі. Це повноцінний локальний сервер з REST API, який слухає на порту 11434 і приймає запити від будь-якого застосунку — Spring Boot, Node.js, Python, або будь-якої мови з підтримкою HTTP. У цій статті — повний практичний...

Ollama vs ChatGPT vs Claude: яка задача вимагає хмари

Ollama vs ChatGPT vs Claude: яка задача вимагає хмари

Питання «Ollama чи ChatGPT?» — неправильне питання. Правильне: «яку задачу я зараз вирішую — і де її краще вирішувати?» Ця стаття не про те, що краще. Вона про те, як обирати без фанатизму. Якщо ще не знайомий з Ollama — почни з вступної статті про те, що таке Ollama і навіщо вона...

DeepSeek V4 Pro у 2026: повний розбір — архітектура, бенчмарки і коли переходити вигідно

DeepSeek V4 Pro у 2026: повний розбір — архітектура, бенчмарки і коли переходити вигідно

TL;DR за 30 секунд: DeepSeek V4 Pro — найбільша open-weight модель у світі: 1.6T параметрів (49B активних), контекст 1M токенів, MIT-ліцензія. Вийшла 24 квітня 2026 як preview. Коштує $3.48/M output токенів — у 7 разів дешевше за GPT-5.5 і в 6 разів дешевше за Claude Opus 4.7. На...

Міграція з deepseek-chat на DeepSeek V4: що зламається до 24 липня

Міграція з deepseek-chat на DeepSeek V4: що зламається до 24 липня

TL;DR за 30 секунд: 24 липня 2026 о 15:59 UTC назви deepseek-chat і deepseek-reasoner перестануть працювати назавжди — без попереджень і без grace period. Будь-який код, який їх використовує, поверне помилку. Це не косметична зміна: V4 — нова архітектура з іншою поведінкою за...