GPT-5.5 в Codex: що змінилось для розробників у 2026

Оновлено:
GPT-5.5 в Codex: що змінилось для розробників у 2026

23 квітня 2026 OpenAI випустила GPT-5.5 — і одразу зробила її дефолтною моделлю в Codex. Але не кожен апдейт насправді щось змінює у щоденній роботі. Цей — змінює. Три речі, які важливі для розробника: менше токенів на ті ж задачі, та сама швидкість що й GPT-5.4, і якісно новий рівень agentic-роботи на складних multi-step задачах.

У цій статті — конкретні цифри з офіційних бенчмарків, чесне порівняння де GPT-5.5 виграє, а де Claude Opus 4.7 досі попереду, і практичний розбір нових режимів Thinking і Fast mode. Без хайпу — тільки те, що корисно знати розробнику у травні 2026.

Коротко: GPT-5.5 — найсильніша модель в Codex на сьогодні. Terminal-Bench 2.0: 82.7%. Менше токенів на ту ж задачу. Та сама per-token latency що й GPT-5.4. Доступна для Plus, Pro, Business, Enterprise, Edu і Go планів. Але є важливі нюанси — про них нижче.

GPT-5.5 — коротко про модель

Коротка відповідь: GPT-5.5 вийшла 23 квітня 2026 — через сім тижнів після GPT-5.4 (березень 2026). OpenAI називає її «новим класом інтелекту для реальної роботи». За внутрішньою класифікацією модель отримала кодову назву Spud.

Станом на травень 2026 GPT-5.5 — найрозумніша модель в екосистемі Codex. Але важливо розуміти що це не просто «GPT-5.4 з більшими цифрами» — це якісно інший підхід до agentic-роботи: модель розрахована на задачі де потрібно планувати, використовувати інструменти, перевіряти своє рішення і продовжувати — навіть якщо первісний план змінився.

Доступність у Codex

Важливий нюанс якого не було у попередніх моделях: GPT-5.5 в Codex і GPT-5.5 в API — це різні поверхні з різними контекстними вікнами.

Параметр Codex (App / CLI / IDE) API
Контекстне вікно 400K токенів 1M токенів
Авторизація ChatGPT OAuth (підписка) API key (з 24 квітня 2026)
Ціна API $5 / 1M input, $30 / 1M output
Доступні плани Codex Plus, Pro, Business, Enterprise, Edu, Go Pay-as-you-go
Fast mode ✅ (1.5× швидше, 2.5× ліміту) Priority: 2.5× ціна

Читачі часто плутають контексти: «GPT-5.5 підтримує 1M токенів» — правда, але тільки в API. У Codex-поверхні ліміт 400K. Це треба враховувати при роботі з великими репозиторіями.

Варіанти GPT-5.5

OpenAI випустила три варіанти в рамках одного релізу:

  • GPT-5.5 (стандартний) — дефолтна модель у Codex і ChatGPT для Plus і вище. Найкраще для більшості agentic coding задач.
  • GPT-5.5 Thinking — більш рефлексивний варіант: лаконічніші і точніші відповіді для складних задач де важлива якість, а не швидкість. Доступний для Plus, Pro, Business, Enterprise.
  • GPT-5.5 Pro — найпотужніший варіант для найскладніших задач. Тільки Pro, Business, Enterprise в ChatGPT. В Codex наразі не виділений окремо.

Джерела: OpenAI — Introducing GPT-5.5 (23 квітня 2026) | Codex Models — офіційна документація

Що конкретно змінилось у Codex з GPT-5.5

Коротка відповідь: чотири реальних зміни — дві технічні (token efficiency і latency), одна якісна (краща agentic-робота), і одна нова (Fast mode). Кожна з них впливає на щоденний workflow по-різному.

1. Token efficiency — ~40% менше токенів на ту ж задачу

OpenAI цілеспрямовано налаштувала Codex під GPT-5.5: та сама задача вимагає приблизно на 40% менше output-токенів порівняно з GPT-5.4. Це не просто маркетингова теза — це означає що реальний ліміт використання для більшості задач залишається на тому ж рівні або знижується, попри вищу ціну за токен в API ($30 vs $15 за 1M output).

Практична ілюстрація: якщо GPT-5.4 витрачав умовно 10 000 токенів на рефакторинг модуля, GPT-5.5 виконає ту саму задачу за ~6 000. При 2× ціні за токен реальна вартість зростає приблизно на 20%, а не вдвічі. Якщо GPT-5.5 ще й потребує менше повторних спроб — break-even або економія.

Для Codex-підписок: Pro-користувачі отримали 2× Codex usage до 31 травня 2026 як компенсацію під час rollout нової моделі.

2. Однакова per-token latency при вищому інтелекті

Типова проблема при виході потужніших моделей — вони повільніші. GPT-5.5 виключення: вона повністю відповідає GPT-5.4 за per-token latency у реальних умовах обслуговування. Це стало можливим завдяки спільній розробці з NVIDIA на базі GB200/GB300 NVL72 rack-scale систем.

Для розробника це означає: ти отримуєш більше результату за те саме очікування. Не «розумніша але повільніша» — а «розумніша і така ж швидка».

3. Якісно краща agentic-робота — менше back-and-forth

GPT-5.5 краще справляється з нечіткими, багатокроковими задачами без постійних уточнень. Вона самостійно планує, обирає інструменти, перевіряє своє рішення і продовжує — навіть якщо первісний план довелось скоригувати в процесі. OpenAI описує це як здатність «розуміти що ти намагаєшся зробити швидше і брати більше роботи на себе».

Конкретний приклад зі статистики: на Expert-SWE — внутрішньому OpenAI-бенчмарку де задачі мають медіанний час виконання людиною 20 годин — GPT-5.5 показав 73.1% проти 68.5% у GPT-5.4. Це не синтетичний тест, а наближений до реального agentic-сценарію.

Окремий факт який майже не висвітлювався публічно: GPT-5.5 разом з Codex ще до свого офіційного релізу переписав власну production-інфраструктуру OpenAI. Codex проаналізував тижні реального трафіку і написав евристики балансування навантаження, які підвищили швидкість генерації токенів більш ніж на 20%. Модель буквально допомогла оптимізувати систему, яка її обслуговує.

4. Fast mode — новий режим для інтерактивної роботи

Разом з GPT-5.5 в Codex з'явився Fast mode — режим якого не існувало раніше. Він генерує токени у 1.5× швидше за 2.5× вартості ліміту.

Призначення: interactive feedback loop де важлива швидкість відповіді, а не глибина autonomous planning. По суті — альтернатива Codex-Spark для тих хто не має Pro-плану або потребує контексту більше 128K. Детально про Fast mode — в наступному розділі.

Джерела: OpenAI — Introducing GPT-5.5 | Vellum — Everything You Need to Know About GPT-5.5 | Codex Changelog — травень 2026

Бенчмарки — що кажуть цифри

Коротка відповідь: GPT-5.5 лідирує на більшості бенчмарків для agentic coding — але не на всіх. Claude Opus 4.7 залишається сильнішим на SWE-Bench Pro. Чесна таблиця нижче.

Важливо: бенчмарки показують відносну силу на стандартизованих задачах. Реальна продуктивність на вашому проєкті може відрізнятись. Використовуйте цифри як відправну точку, а не вирок.

Порівняльна таблиця моделей

Бенчмарк GPT-5.3-Codex GPT-5.4 GPT-5.5 Claude Opus 4.7 Gemini 3.1 Pro
Terminal-Bench 2.0 77.3% 75.1% 82.7% 🏆 69.4% 68.5%
SWE-Bench Pro 56.8% 58.6% 64.3% 🏆
Expert-SWE (внутр.) 68.5% 73.1% 🏆
FrontierMath T1-3 51.7% 🏆
Graphwalks BFS >128K 21.4% 73.7% 🏆
MRCR v2 при 1M токенів 36.6% 74.0% 🏆

Що означає кожен бенчмарк для розробника

Terminal-Bench 2.0 (82.7%) — найрелевантніший для роботи в Codex. За офіційним changelog OpenAI, цей бенчмарк вимірює здатність агента виконувати складні CLI-задачі що вимагають планування, ітерацій і використання інструментів. GPT-5.5 веде з перевагою 13+ відсоткових пунктів над Claude Opus 4.7. Для autonomous terminal workflows — це вирішальна перевага.

SWE-Bench Pro (58.6%) — вирішення реальних GitHub issues. Тут Claude Opus 4.7 з 64.3% залишається попереду. OpenAI зауважує що різниця може частково пояснюватись меморизацією частини бенчмарку — але незалежного підтвердження цього немає. Чесний висновок: для code review і repository reasoning Claude Opus 4.7 все ще конкурентний.

Expert-SWE (73.1%) — внутрішній OpenAI-бенчмарк для найскладніших long-horizon задач. Медіанний час виконання людиною — 20 годин. GPT-5.5 показав 73.1% проти 68.5% у GPT-5.4: +4.6 пп на найважчих задачах.

Graphwalks BFS при >128K (73.7% vs 21.4%) — цифри які показують наскільки кращою стала робота з довгим контекстом. GPT-5.4 різко деградував на задачах що виходять за 128K токенів. GPT-5.5 зберігає 73.7% при 256K — якісна зміна для роботи з великими codebase.

Artificial Analysis Coding Index

Незалежний агрегований рейтинг від Artificial Analysis (weighted average з 10 евалуацій, включно з Terminal-Bench Hard, GPQA Diamond, Humanity's Last Exam, SciCode та іншими): GPT-5.5 займає першу позицію при половині вартості конкурентів серед frontier coding моделей. Це зовнішня незалежна оцінка, не від OpenAI.

Джерела: OpenAI — Introducing GPT-5.5 (бенчмарки) | Handy AI — Model Drop: GPT-5.5 | LLM Stats — GPT-5.5 vs GPT-5.4: детальний аналіз | Vellum — Everything You Need to Know About GPT-5.5

GPT-5.5 Thinking і Fast mode — коли що вмикати

Коротка відповідь: GPT-5.5 — не одна модель, а три режими з різними trade-offs. Стандартний — для більшості задач. Thinking — коли потрібна глибша рефлексія. Fast mode — коли важлива швидкість зворотнього зв'язку.

GPT-5.5 Thinking — що це і коли вмикати

Thinking — варіант GPT-5.5 з посиленою рефлексією перед відповіддю. За визначенням OpenAI: «розблоковує швидшу допомогу зі складнішими задачами, надаючи розумніші та лаконічніші відповіді». Доступний для Plus, Pro, Business і Enterprise в ChatGPT. В Codex вмикається через model picker — вибирається як окремий пункт.

Thinking — твій вибір коли:

  • Архітектурне рішення де важлива якість, а не швидкість: наприклад, як розбити монолітний сервіс на мікросервіси з урахуванням існуючих залежностей
  • Складний дебаг де проблема не очевидна: помилка в production без явного stack trace, race condition в async-коді, нестабільний тест що падає 1 раз з 10
  • Research-задачі: вибір між двома архітектурними підходами з аналізом trade-offs
  • Будь-яка задача де ти хочеш почути «чому так, а не інакше», а не тільки готовий код

Залишайся на стандартному GPT-5.5 коли:

  • Задача зрозуміла і потрібен тільки результат: написати тести, додати валідацію, зрефакторити метод
  • Autonomous задача де Codex сам буде вирішувати підкроки — тут Thinking додасть overhead без користі
  • Більшість звичайних agentic coding задач — стандартний режим і є рекомендованим дефолтом

Fast mode — що це і коли вмикати

Fast mode — новий режим в Codex, якого не існувало до GPT-5.5. За даними 9to5Mac, він генерує токени у 1.5× швидше за 2.5× вартості ліміту. Вмикається у model picker поруч з основним GPT-5.5.

По суті Fast mode — це альтернатива GPT-5.3-Codex-Spark для тих хто не має Pro-плану (Spark — тільки Pro, research preview) або потребує контексту більше 128K токенів (Spark обмежений 128K). Fast mode доступний для всіх планів що мають GPT-5.5 і використовує повний 400K контекст.

Fast mode — твій вибір коли:

  • Активний дебаг де хочеш відповідь за секунди, а не за хвилини: переглядаєш stack trace, пропонуєш гіпотезу, хочеш перевірити наступну
  • Швидкий рефакторинг одного методу або класу — задача маленька і не потребує глибокого planning
  • Code review в реальному часі: тобі дають diff і хочеш миттєво отримати коментарі
  • Перебираєш варіанти реалізації: спробував один підхід, хочеш побачити альтернативу — і так кілька разів

Залишайся на стандартному GPT-5.5 коли:

  • Autonomous задача на тривалий час — планування, реалізація фічі, написання тестів: тут швидкість відповіді не критична, важлива якість результату
  • Ліміт під тиском — Fast mode коштує 2.5× від стандартного; при активному використанні місячний ліміт вичерпається значно швидше
  • Більшість задач — стандартний GPT-5.5 і є рекомендованим дефолтом, Fast mode для виняткових ситуацій

Порівняльна таблиця режимів

Режим Швидкість Вартість ліміту Найкраще для Доступ
GPT-5.5 (стандартний) як GPT-5.4 Більшість задач, autonomous coding Plus, Pro, Business, Enterprise, Edu, Go
GPT-5.5 Thinking трохи повільніше (рефлексія) 1× (не підтверджено окремо) Архітектура, складний дебаг, research Plus і вище
Fast mode 1.5× швидше 2.5× ліміту Interactive loop, швидкий рефакторинг Всі плани з GPT-5.5
GPT-5.3-Codex-Spark >1000 токенів/сек Окремий ліміт Real-time кодинг, 128K контекст Тільки Pro (research preview)

Джерела: OpenAI — Introducing GPT-5.5 (Thinking і Fast mode) | 9to5Mac — OpenAI upgrades ChatGPT and Codex with GPT-5.5 | Codex Models — офіційна документація

Як переключитись на GPT-5.5 в Codex

Коротка відповідь: оновіть додаток і оберіть GPT-5.5 у model picker. Якщо моделі ще немає — rollout поступовий, це нормально. Нижче — кроки для кожної поверхні і що робити поки GPT-5.5 недоступний.

За офіційним changelog від травня 2026: «GPT-5.5 є рекомендованим вибором для більшості задач у Codex. Якщо ви не бачите GPT-5.5 — оновіть CLI, IDE-розширення або Codex App до останньої версії. Під час rollout продовжуйте використовувати GPT-5.4.»

Codex App (macOS / Windows)

  1. Оновити Codex App до останньої версії через меню або App Store
  2. Відкрити новий тред → у composer знайти model picker
  3. Обрати GPT-5.5 зі списку (або GPT-5.5 Thinking для складних задач)
  4. Fast mode вмикається окремим перемикачем поруч з вибором моделі

Codex CLI

Запуск з конкретною моделлю через прапор:

codex --model gpt-5.5

Зміна моделі в активному треді без перезапуску:

/model gpt-5.5

Встановити GPT-5.5 як дефолт у config.toml:

[model]
default = "gpt-5.5"

VS Code extension

  1. Оновити розширення через Extensions panel (Ctrl+Shift+X → оновити Codex)
  2. У composer — model selector під input box
  3. Обрати GPT-5.5; зміна застосовується до поточного і наступних тредів

JetBrains extension

  1. Оновити через JetBrains Marketplace (Settings → Plugins → Updates)
  2. У Codex composer — model selector під input box, аналогічно VS Code

API (з 24 квітня 2026)

GPT-5.5 доступний через Responses і Chat Completions API з 24 квітня 2026. Model string: gpt-5.5. Контекст в API — 1M токенів.

// Приклад для Responses API
{
  "model": "gpt-5.5",
  "input": "Зрефактори цей Spring Boot сервіс..."
}

Важливо: у Codex-поверхні (App / CLI / IDE) GPT-5.5 доступний тільки через ChatGPT OAuth (підписка). Для API-key workflows у Codex поки використовуйте gpt-5.4 або gpt-5.2-codex.

Якщо GPT-5.5 ще не з'явився

  • Rollout поступовий — це нормально, не всі акаунти отримують доступ одночасно
  • Перевірте чи оновлений додаток / CLI до останньої версії — це найчастіша причина
  • Тимчасово: продовжуйте з GPT-5.4. Для більшості задач різниця не критична
  • Перевірити статус доступності: chatgpt.com/codex/settings/usage

Джерела: Codex Changelog — офіційний | Codex Models — документація

Практичне порівняння: GPT-5.4 vs GPT-5.5 для типових задач

Коротка відповідь: GPT-5.5 виграє найбільше на складних, нечітких, multi-step задачах. На простих і добре визначених — різниця мінімальна, і іноді важливіше обрати правильний режим (Fast mode, Thinking), ніж саму модель.

Рефакторинг модуля

GPT-5.4GPT-5.5
Один клас / метод Добре справляється Порівнянно, трохи менше токенів
Multi-file рефакторинг Може загубити зв'язки між файлами на великому scope Краще «розуміє форму системи» — де лежить проблема і що ще буде зачеплено
Legacy-код з неявними залежностями Потребує уточнень Менше back-and-forth, краще навігація по неочевидних зв'язках

Рекомендація: для одного класу різниця мінімальна — можна залишатись на GPT-5.4. Для рефакторингу, що зачіпає кілька модулів — GPT-5.5 відчутно точніший.

Написання тестів

GPT-5.4GPT-5.5
Unit-тести на відомих патернах Добре Порівнянно, ~30–40% менше токенів
Integration-тести з неочевидними edge cases Пропускає нетривіальні сценарії Краще знаходить неочевидні граничні випадки
Тести для legacy-коду без документації Потрібно детально описувати логіку Краще інферить логіку з коду самостійно

Рекомендація: для типових unit-тестів на чистому коді — Spark (швидше) або GPT-5.4 mini (дешевше). GPT-5.5 виправданий для складних integration-тестів і legacy.

Дебаг production-issues

СценарійРекомендована модельЧому
Відомий stack trace, зрозуміла причина Fast mode або Spark Швидкість відповіді важливіша за глибину
Нестабільна помилка, незрозуміла причина GPT-5.5 Thinking Рефлексія перед відповіддю, менше хибних гіпотез
Production issue що торкається кількох сервісів GPT-5.5 стандартний Аналіз cross-service залежностей, planning

Автономна розробка фічі

Це де GPT-5.5 показує найбільший відрив від GPT-5.4. Expert-SWE з медіанним часом виконання людиною 20 годин — 73.1% проти 68.5% — саме про це: довгі, складні, multi-step задачі де модель самостійно планує, зустрічає перепони і продовжує без втрати контексту.

Типовий autonomous workflow у Codex з GPT-5.5:

  1. Отримує задачу: «Додай endpoint для експорту звітів у PDF з фільтрацією по даті»
  2. Читає існуючий codebase: контролери, сервіси, репозиторії, DTO
  3. Планує: які класи змінювати, які створювати, як вписатись в існуючу архітектуру
  4. Пише код, запускає тести, бачить фейл → сам визначає причину → виправляє
  5. Повертає готовий diff або PR на рев'ю — без проміжних уточнень

GPT-5.4 справляється з цим сценарієм, але частіше потребує уточнень при нестандартних ситуаціях і може загубити контекст на великому scope.

З мого досвіду — кейс AskYourDocs

Тестував GPT-5.5 на реальних задачах двох Spring Boot проєктів. Ось конкретні спостереження:

Кейс 1: рефакторинг RAG pipeline в AskYourDocs. Задача — розбити монолітний сервіс обробки документів на три окремих: ingestion, chunking і embedding. Зачіпала 6 класів і конфіги Spring AI. GPT-5.4 на цій же задачі раніше вимагав 3–4 уточнення щодо залежностей між бінами. GPT-5.5 пройшов без проміжних питань — проаналізував @ConditionalOnProperty-конфігурацію і врахував залежність від OpenRouter та Ollama провайдерів самостійно. Результат прийняв з мінімальними правками.

Кейс 2: написання тестів для WebsCraft. Для unit-тестів простих сервісів — різниця з GPT-5.4 мінімальна. Де відчулась різниця: тести для Thymeleaf-шаблонів з JSON-LD і складними умовними блоками. GPT-5.5 знайшов два граничних випадки (порожній FAQ-список і відсутній breadcrumb-батько) які я сам пропустив при ручному рев'ю.

Що розчарувало: Fast mode при активному використанні з'їдає ліміт швидко. За один активний день інтерактивного дебагу 2.5× коефіцієнт вартості відчувається вже до вечора. Тепер я вмикаю Fast mode тільки для справді коротких interactive-задач, а довгі autonomous залишаю на стандартному GPT-5.5.

Джерела: OpenAI — Introducing GPT-5.5 | Developer Tech — GPT-5.5 Codex developer workflows

Обмеження та нюанси

Коротка відповідь: GPT-5.5 — найсильніша модель в Codex, але має реальні обмеження які треба знати до початку. Особливо важливі: різниця між контекстом у Codex і API, обмеження авторизації і вартість Fast mode.

Контекст 400K у Codex — не 1M

Найпоширеніша точка плутанини: GPT-5.5 підтримує 1M токенів контексту — але тільки в API. У Codex-поверхні (App / CLI / IDE) ліміт 400K токенів. Це підтверджено офіційною документацією. Для дуже великих репозиторіїв (понад 400K токенів) — або дробіть контекст вручну, або використовуйте GPT-5.4 через API з 1M вікном.

GPT-5.5 у Codex — тільки через ChatGPT OAuth

У Codex-поверхні (App / CLI / IDE) GPT-5.5 доступний тільки при авторизації через ChatGPT OAuth (підписка Plus і вище). За офіційною документацією Codex: для API-key workflows у Codex використовуйте gpt-5.4 або gpt-5.2-codex. В прямому API (Responses / Chat Completions) GPT-5.5 доступний через API-key з 24 квітня 2026.

Вища ціна за токен в API

GPT-5.5 в API коштує $5 / 1M input і $30 / 1M output токенів — вдвічі дорожче за GPT-5.4 ($2.50 / $15). OpenAI стверджує що token efficiency (~40% менше токенів на задачу) компенсує різницю для більшості workloads. Для Codex-підписок (Plus, Pro тощо) — вартість рахується в ліміті підписки, а не в доларах напряму.

Fast mode — 2.5× вартості ліміту

Fast mode зручний, але дорогий: кожен запит коштує в 2.5× більше від ліміту ніж стандартний GPT-5.5. При інтенсивному використанні впродовж дня місячний ліміт вичерпується значно швидше ніж при роботі зі стандартним режимом. Рекомендація: вмикайте Fast mode тільки для коротких interactive-задач, autonomous залишайте на стандартному.

Rollout поступовий — GPT-5.5 може бути недоступний

Навіть з актуальним планом і оновленим додатком GPT-5.5 може бути відсутня у вашому model picker. Rollout відбувається поступово і займає кілька тижнів. Що робити: оновити додаток/CLI до останньої версії (найчастіша причина відсутності), продовжувати з GPT-5.4 — для більшості задач різниця не критична.

GPT-5.5 Pro — тільки Pro/Business/Enterprise у ChatGPT

GPT-5.5 Pro (найпотужніший варіант) доступний тільки для Pro, Business і Enterprise в ChatGPT. Plus отримує стандартний GPT-5.5 і Thinking, але не Pro-варіант. В Codex GPT-5.5 Pro не виділений окремо в model picker — використовується стандартний GPT-5.5.

Таблиця обмежень

Обмеження Деталь Обхідний шлях
Контекст у Codex 400K (не 1M) GPT-5.4 через API для задач з >400K контекстом
Авторизація в Codex Тільки ChatGPT OAuth gpt-5.4 або gpt-5.2-codex для API-key workflows
Ціна API 2× дорожче за токен ніж GPT-5.4 Token efficiency частково компенсує; використовуй Batch для несрочних задач
Fast mode вартість 2.5× ліміту підписки Тільки для коротких interactive-задач
Rollout Поступовий, може бути затримка Оновити додаток; тимчасово GPT-5.4
GPT-5.5 Pro Не доступний у Codex окремо Стандартний GPT-5.5 для Codex-задач

Джерела: Codex Models — офіційна документація | OpenAI — Introducing GPT-5.5 (ціни і доступність)

З мого досвіду — перші тижні з GPT-5.5 в Codex

Тестував GPT-5.5 на двох Spring Boot проєктах — WebsCraft і AskYourDocs — у реальних умовах, не на синтетичних задачах. Ось що реально змінилось у щоденній роботі порівняно з GPT-5.4.

Де відчув найбільший приріст

Multi-file задачі — головна різниця. На AskYourDocs рефакторинг RAG pipeline торкнувся 6 класів одночасно. GPT-5.4 на схожих задачах регулярно «губив» залежності між Spring-бінами і потребував 3–4 уточнення. GPT-5.5 вперше пройшов увесь рефакторинг без проміжних питань — розпізнав @ConditionalOnProperty-конфігурацію і врахував обидва провайдери (OpenRouter для prod, Ollama для local) без підказки. Це відчувається як якісна зміна, а не просто «трохи краще».

Тести для нетривіального коду. Для Thymeleaf-шаблонів з JSON-LD GPT-5.5 знайшов два граничних випадки які я сам пропустив при ручному рев'ю: порожній FAQ-список і відсутній breadcrumb-батько. GPT-5.4 у тому ж сценарії писав тести тільки для happy path.

Де різниця мінімальна або Spark краще

Прості unit-тести і boilerplate. Для написання тестів на стандартних CRUD-сервісах або генерації DTO — різниця між GPT-5.4 і GPT-5.5 практично непомітна. У цих сценаріях я далі використовую GPT-5.3-Codex-Spark (якщо задача маленька і потрібна швидкість) або GPT-5.4 mini (якщо потрібна паралельна обробка без витрат основного ліміту).

Активний дебаг з відомим stack trace. Тут Fast mode на GPT-5.5 дає гарний результат, але Spark усе одно швидший — якщо він доступний у вашому плані. Для моніторингу і налагодження під час активної сесії Spark залишається моїм першим вибором.

Що розчарувало

Fast mode і ліміт. Перший тиждень я використовував Fast mode надто агресивно — на задачах де він не потрібен. 2.5× коефіцієнт вартості ліміту дуже швидко з'їдає місячний запас. Тепер правило просте: Fast mode — тільки для interactive-задач до 10 хвилин. Все довше — стандартний GPT-5.5.

400K контекст у Codex — реальне обмеження. Намагався проаналізувати весь WebsCraft-проєкт (Spring Boot з усіма шаблонами і конфігами) за один прохід — не вмістилось. Довелось ділити на логічні частини: окремо web-layer, окремо service-layer, окремо Thymeleaf. Для дуже великих репозиторіїв 400K — це реальна стеля.

Мій поточний workflow з GPT-5.5

  • GPT-5.5 стандартний — autonomous задачі: реалізація фічі, рефакторинг multi-file, написання складних тестів
  • GPT-5.5 Thinking — архітектурні рішення і нетривіальний дебаг
  • Fast mode — коротка interactive-сесія, перебір варіантів реалізації
  • Spark — активний дебаг з відомою причиною де важлива швидкість відповіді
  • GPT-5.4 mini — subagents для паралельних рутинних задач

Codex Hub зі всіма матеріалами про моделі — Codex від OpenAI: повний гід 2026.

Часті питання (FAQ)

Чи варто переходити з GPT-5.4 на GPT-5.5 в Codex?

Так — якщо GPT-5.5 вже з'явився у вашому model picker. За рахунок token efficiency (~40% менше токенів на задачу) реальне споживання ліміту для більшості задач залишається на тому ж рівні або знижується, попри вищу ціну за токен в API. Для автономних і multi-step задач різниця відчутна. Якщо GPT-5.5 ще не доступний — оновіть додаток; під час rollout продовжуйте з GPT-5.4.

Яка різниця між GPT-5.5 і GPT-5.3-Codex?

GPT-5.3-Codex — спеціалізована coding-модель з 400K контекстом і фокусом на agentic software engineering. GPT-5.5 ширша: coding + reasoning + computer use + knowledge work, і при цьому розумніша — 82.7% проти 77.3% на Terminal-Bench 2.0. Однак GPT-5.3-Codex залишається доступним через API-key у Codex (GPT-5.5 через API-key у Codex-поверхні поки недоступний), тому для API-key workflows вона все ще актуальна.

GPT-5.5 доступний безкоштовно?

Ні. У Codex GPT-5.5 доступний тільки для платних планів: Plus ($20/міс), Pro ($100 або $200/міс), Business ($30/user/міс), Enterprise, Edu і Go. Free-план не має доступу до GPT-5.5 ні в ChatGPT, ні в Codex.

Що таке GPT-5.5 Thinking і чим він відрізняється від стандартного?

Thinking — варіант GPT-5.5 з посиленою рефлексією перед відповіддю. Дає лаконічніші і точніші відповіді для складних задач: архітектурних рішень, глибокого дебагу, research-питань. Може бути трохи повільнішим. Доступний для Plus і вище. Не плутати з GPT-5.5 Pro — це окремий найпотужніший варіант тільки для Pro/Business/Enterprise в ChatGPT.

Чим GPT-5.5 в Codex відрізняється від GPT-5.5 в ChatGPT і в API?

Та сама модель, різні поверхні і контекст. В Codex: 400K контекстне вікно, доступ до репозиторію, terminal, браузеру, PR workflow, Skills, Fast mode. В ChatGPT: стандартний діалог з інструментами, web search, Python. В API: 1M контекстне вікно, повна кастомізація, ціна $5/$30 за 1M токенів. Для agentic coding — Codex правильна поверхня.

Висновки

  • GPT-5.5 вийшла 23 квітня 2026 і стала дефолтною моделлю в Codex. Ключові зміни для розробника: ~40% менше токенів на ту ж задачу, та сама per-token latency що й GPT-5.4, якісно краща agentic-робота на multi-step задачах.
  • Контекст у Codex — 400K токенів, в API — 1M. Ця різниця критична при виборі поверхні для роботи з великими репозиторіями.
  • GPT-5.5 лідирує на Terminal-Bench 2.0 (82.7%) і Expert-SWE (73.1%), але Claude Opus 4.7 залишається сильнішим на SWE-Bench Pro (64.3% vs 58.6%). Вибір моделі залежить від типу задачі — не від бренду.
  • Два нових режими змінюють workflow: Thinking — для архітектурних рішень і складного дебагу; Fast mode — для interactive-задач, але коштує 2.5× ліміту.
  • Найефективніший підхід у 2026 — комбінація режимів під тип задачі: GPT-5.5 стандартний для autonomous coding, Thinking для архітектури, Fast mode для interactive, Spark для real-time, mini для subagents.

Головна думка: GPT-5.5 — реальний крок вперед, а не маркетинговий апдейт. Але максимальну користь дає не сама по собі модель, а правильний вибір між GPT-5.5 стандартним, Thinking і Fast mode під конкретну задачу. Це потребує тижня-двох практики — після чого workflow стає значно ефективнішим.

Повний огляд екосистеми Codex і всіх моделей — Codex від OpenAI: повний гід 2026. Детально про GPT-5.3-Codex-Spark — GPT-5.3-Codex-Spark: real-time кодинг у 2026. Порівняння GPT-5.4 і GPT-5.3-Codex — GPT-5.4 vs GPT-5.3-Codex: в чому різниця і що обрати.

📚 Джерела

Останні статті

Читайте більше цікавих матеріалів

GPT-5.5 в Codex: що змінилось для розробників у 2026

GPT-5.5 в Codex: що змінилось для розробників у 2026

23 квітня 2026 OpenAI випустила GPT-5.5 — і одразу зробила її дефолтною моделлю в Codex. Але не кожен апдейт насправді щось змінює у щоденній роботі. Цей — змінює. Три речі, які важливі для розробника: менше токенів на ті ж задачі, та сама швидкість що й GPT-5.4, і якісно новий...

GPT-Realtime-2: технічний гід — WebSocket API, підключення і приклади коду

GPT-Realtime-2: технічний гід — WebSocket API, підключення і приклади коду

Ця стаття — практичний гід для розробників що хочуть підключити GPT-Realtime-2 до свого проєкту. Ми розберемо архітектуру Realtime API, виберемо правильний метод підключення для вашого сценарію, напишемо першу робочу сесію з нуля і налаштуємо preambles, tool calls і recovery з реальним...

OpenAI випустила GPT-Realtime-2: перша голосова модель з GPT-5-рівнем мислення

OpenAI випустила GPT-Realtime-2: перша голосова модель з GPT-5-рівнем мислення

7 травня 2026 року OpenAI зробила анонс, який багато хто в спільноті розробників чекав давно: три нові голосові моделі в Realtime API. Флагман — GPT-Realtime-2 — перша в лінійці, де мислення рівня GPT-5 вбудоване прямо в голосовий потік. Без затримок між розпізнаванням і відповіддю. Без окремих...

Яку модель Ollama обрати для агента з tool calling: порівняння і бенчмарки

Яку модель Ollama обрати для агента з tool calling: порівняння і бенчмарки

Tool calling в Ollama — одна з найбільш неочевидних фіч локальних моделей. Не тому що API складний. А тому що між «модель підтримує tools» у документації і «модель стабільно викликає tools у продакшні» — велика різниця яку можна виявити тільки під навантаженням. Одні моделі...

GPT-5.3-Codex-Spark: real-time кодинг у 2026 — що це і навіщо

GPT-5.3-Codex-Spark: real-time кодинг у 2026 — що це і навіщо

12 лютого 2026 року OpenAI випустила GPT-5.3-Codex-Spark — і більшість розробників одразу запитали одне й те саме: «Це новий додаток? Мені треба щось перевстановлювати?» Ні. Spark — це модель всередині Codex App яку ти вже маєш. Просто інша модель у model picker — але з принципово іншим принципом...

Codex від OpenAI: повний гід 2026

Codex від OpenAI: повний гід 2026

OpenAI Codex у 2026 році — це не той інструмент, про який ви, можливо, читали кілька років тому. Оригінальний Codex API (2021–2023) був моделлю для автодоповнення коду на базі GPT-3, яка живила ранні версії GitHub Copilot. OpenAI закрила той API у березні 2023 року. Те, що існує сьогодні —...