23 квітня 2026 OpenAI випустила GPT-5.5 — і одразу зробила її дефолтною моделлю в Codex.
Але не кожен апдейт насправді щось змінює у щоденній роботі. Цей — змінює.
Три речі, які важливі для розробника: менше токенів на ті ж задачі,
та сама швидкість що й GPT-5.4, і якісно новий рівень agentic-роботи
на складних multi-step задачах.
У цій статті — конкретні цифри з офіційних бенчмарків, чесне порівняння де GPT-5.5
виграє, а де Claude Opus 4.7 досі попереду, і практичний розбір нових режимів Thinking
і Fast mode. Без хайпу — тільки те, що корисно знати розробнику у травні 2026.
Коротко: GPT-5.5 — найсильніша модель в Codex на сьогодні.
Terminal-Bench 2.0: 82.7%. Менше токенів на ту ж задачу. Та сама per-token latency що й GPT-5.4.
Доступна для Plus, Pro, Business, Enterprise, Edu і Go планів. Але є важливі нюанси —
про них нижче.
GPT-5.5 — коротко про модель
Коротка відповідь: GPT-5.5 вийшла 23 квітня 2026 —
через сім тижнів після GPT-5.4 (березень 2026). OpenAI називає її
«новим класом інтелекту для реальної роботи».
За внутрішньою класифікацією модель отримала кодову назву Spud.
Станом на травень 2026 GPT-5.5 — найрозумніша модель в екосистемі Codex.
Але важливо розуміти що це не просто «GPT-5.4 з більшими цифрами» —
це якісно інший підхід до agentic-роботи:
модель розрахована на задачі де потрібно планувати, використовувати інструменти,
перевіряти своє рішення і продовжувати — навіть якщо первісний план змінився.
Доступність у Codex
Важливий нюанс якого не було у попередніх моделях:
GPT-5.5 в Codex і GPT-5.5 в API — це різні поверхні з різними контекстними вікнами.
Параметр
Codex (App / CLI / IDE)
API
Контекстне вікно
400K токенів
1M токенів
Авторизація
ChatGPT OAuth (підписка)
API key (з 24 квітня 2026)
Ціна API
–
$5 / 1M input, $30 / 1M output
Доступні плани Codex
Plus, Pro, Business, Enterprise, Edu, Go
Pay-as-you-go
Fast mode
✅ (1.5× швидше, 2.5× ліміту)
Priority: 2.5× ціна
Читачі часто плутають контексти: «GPT-5.5 підтримує 1M токенів» — правда, але тільки в API.
У Codex-поверхні ліміт 400K. Це треба враховувати при роботі з великими репозиторіями.
Варіанти GPT-5.5
OpenAI випустила три варіанти в рамках одного релізу:
GPT-5.5 (стандартний) — дефолтна модель у Codex і ChatGPT для
Plus і вище. Найкраще для більшості agentic coding задач.
GPT-5.5 Thinking — більш рефлексивний варіант: лаконічніші
і точніші відповіді для складних задач де важлива якість, а не швидкість.
Доступний для Plus, Pro, Business, Enterprise.
GPT-5.5 Pro — найпотужніший варіант для найскладніших задач.
Тільки Pro, Business, Enterprise в ChatGPT. В Codex наразі не виділений окремо.
Коротка відповідь: чотири реальних зміни — дві технічні
(token efficiency і latency), одна якісна (краща agentic-робота),
і одна нова (Fast mode). Кожна з них впливає на щоденний workflow по-різному.
1. Token efficiency — ~40% менше токенів на ту ж задачу
OpenAI цілеспрямовано налаштувала Codex під GPT-5.5: та сама задача
вимагає приблизно на 40% менше output-токенів порівняно з GPT-5.4.
Це не просто маркетингова теза — це означає що реальний ліміт використання
для більшості задач залишається на тому ж рівні або знижується,
попри вищу ціну за токен в API ($30 vs $15 за 1M output).
Практична ілюстрація: якщо GPT-5.4 витрачав умовно 10 000 токенів на рефакторинг модуля,
GPT-5.5 виконає ту саму задачу за ~6 000. При 2× ціні за токен реальна вартість
зростає приблизно на 20%, а не вдвічі.
Якщо GPT-5.5 ще й потребує менше повторних спроб — break-even або економія.
Для Codex-підписок: Pro-користувачі отримали 2× Codex usage до 31 травня 2026
як компенсацію під час rollout нової моделі.
2. Однакова per-token latency при вищому інтелекті
Типова проблема при виході потужніших моделей — вони повільніші.
GPT-5.5 виключення: вона повністю відповідає GPT-5.4 за per-token latency
у реальних умовах обслуговування. Це стало можливим завдяки спільній розробці
з NVIDIA на базі GB200/GB300 NVL72 rack-scale систем.
Для розробника це означає: ти отримуєш більше результату за те саме очікування.
Не «розумніша але повільніша» — а «розумніша і така ж швидка».
3. Якісно краща agentic-робота — менше back-and-forth
GPT-5.5 краще справляється з нечіткими, багатокроковими задачами без постійних уточнень.
Вона самостійно планує, обирає інструменти, перевіряє своє рішення і продовжує —
навіть якщо первісний план довелось скоригувати в процесі.
OpenAI описує це як здатність «розуміти що ти намагаєшся зробити
швидше і брати більше роботи на себе».
Конкретний приклад зі статистики: на Expert-SWE — внутрішньому OpenAI-бенчмарку
де задачі мають медіанний час виконання людиною 20 годин —
GPT-5.5 показав 73.1% проти 68.5% у GPT-5.4. Це не синтетичний тест,
а наближений до реального agentic-сценарію.
Окремий факт який майже не висвітлювався публічно: GPT-5.5 разом з Codex
ще до свого офіційного релізу переписав власну production-інфраструктуру OpenAI.
Codex проаналізував тижні реального трафіку і написав евристики балансування навантаження,
які підвищили швидкість генерації токенів
більш ніж на 20%.
Модель буквально допомогла оптимізувати систему, яка її обслуговує.
4. Fast mode — новий режим для інтерактивної роботи
Разом з GPT-5.5 в Codex з'явився Fast mode — режим якого не існувало раніше.
Він генерує токени у 1.5× швидше за 2.5× вартості ліміту.
Призначення: interactive feedback loop де важлива швидкість відповіді, а не глибина
autonomous planning. По суті — альтернатива Codex-Spark для тих хто не має Pro-плану
або потребує контексту більше 128K. Детально про Fast mode — в наступному розділі.
Коротка відповідь: GPT-5.5 лідирує на більшості бенчмарків
для agentic coding — але не на всіх. Claude Opus 4.7 залишається сильнішим
на SWE-Bench Pro. Чесна таблиця нижче.
Важливо: бенчмарки показують відносну силу на стандартизованих задачах.
Реальна продуктивність на вашому проєкті може відрізнятись.
Використовуйте цифри як відправну точку, а не вирок.
Порівняльна таблиця моделей
Бенчмарк
GPT-5.3-Codex
GPT-5.4
GPT-5.5
Claude Opus 4.7
Gemini 3.1 Pro
Terminal-Bench 2.0
77.3%
75.1%
82.7% 🏆
69.4%
68.5%
SWE-Bench Pro
56.8%
–
58.6%
64.3% 🏆
–
Expert-SWE (внутр.)
–
68.5%
73.1% 🏆
–
–
FrontierMath T1-3
–
–
51.7% 🏆
–
–
Graphwalks BFS >128K
–
21.4%
73.7% 🏆
–
–
MRCR v2 при 1M токенів
–
36.6%
74.0% 🏆
–
–
Що означає кожен бенчмарк для розробника
Terminal-Bench 2.0 (82.7%) — найрелевантніший для роботи в Codex.
За офіційним changelog OpenAI, цей бенчмарк вимірює здатність
агента виконувати складні CLI-задачі що вимагають планування, ітерацій і використання інструментів.
GPT-5.5 веде з перевагою 13+ відсоткових пунктів над Claude Opus 4.7.
Для autonomous terminal workflows — це вирішальна перевага.
SWE-Bench Pro (58.6%) — вирішення реальних GitHub issues.
Тут Claude Opus 4.7 з 64.3% залишається попереду.
OpenAI зауважує що різниця може частково пояснюватись меморизацією частини бенчмарку —
але незалежного підтвердження цього немає.
Чесний висновок: для code review і repository reasoning Claude Opus 4.7 все ще конкурентний.
Expert-SWE (73.1%) — внутрішній OpenAI-бенчмарк для найскладніших
long-horizon задач. Медіанний час виконання людиною — 20 годин.
GPT-5.5 показав 73.1% проти 68.5% у GPT-5.4: +4.6 пп на найважчих задачах.
Graphwalks BFS при >128K (73.7% vs 21.4%) — цифри які показують
наскільки кращою стала робота з довгим контекстом.
GPT-5.4 різко деградував на задачах що виходять за 128K токенів.
GPT-5.5 зберігає 73.7% при 256K — якісна зміна для роботи з великими codebase.
Artificial Analysis Coding Index
Незалежний агрегований рейтинг від
Artificial Analysis
(weighted average з 10 евалуацій, включно з Terminal-Bench Hard, GPQA Diamond,
Humanity's Last Exam, SciCode та іншими):
GPT-5.5 займає першу позицію при половині вартості конкурентів
серед frontier coding моделей.
Це зовнішня незалежна оцінка, не від OpenAI.
Коротка відповідь: GPT-5.5 — не одна модель, а три режими
з різними trade-offs. Стандартний — для більшості задач. Thinking — коли потрібна
глибша рефлексія. Fast mode — коли важлива швидкість зворотнього зв'язку.
GPT-5.5 Thinking — що це і коли вмикати
Thinking — варіант GPT-5.5 з посиленою рефлексією перед відповіддю.
За визначенням OpenAI: «розблоковує швидшу допомогу зі складнішими задачами,
надаючи розумніші та лаконічніші відповіді».
Доступний для Plus, Pro, Business і Enterprise в ChatGPT.
В Codex вмикається через model picker — вибирається як окремий пункт.
Thinking — твій вибір коли:
Архітектурне рішення де важлива якість, а не швидкість:
наприклад, як розбити монолітний сервіс на мікросервіси з урахуванням
існуючих залежностей
Складний дебаг де проблема не очевидна: помилка в production без явного stack trace,
race condition в async-коді, нестабільний тест що падає 1 раз з 10
Research-задачі: вибір між двома архітектурними підходами з аналізом trade-offs
Будь-яка задача де ти хочеш почути «чому так, а не інакше»,
а не тільки готовий код
Залишайся на стандартному GPT-5.5 коли:
Задача зрозуміла і потрібен тільки результат: написати тести, додати валідацію, зрефакторити метод
Autonomous задача де Codex сам буде вирішувати підкроки — тут Thinking додасть overhead без користі
Більшість звичайних agentic coding задач — стандартний режим і є рекомендованим дефолтом
Fast mode — що це і коли вмикати
Fast mode — новий режим в Codex, якого не існувало до GPT-5.5.
За даними 9to5Mac, він генерує токени у 1.5× швидше
за 2.5× вартості ліміту. Вмикається у model picker поруч з основним GPT-5.5.
По суті Fast mode — це альтернатива
GPT-5.3-Codex-Spark
для тих хто не має Pro-плану (Spark — тільки Pro, research preview)
або потребує контексту більше 128K токенів (Spark обмежений 128K).
Fast mode доступний для всіх планів що мають GPT-5.5 і використовує повний 400K контекст.
Fast mode — твій вибір коли:
Активний дебаг де хочеш відповідь за секунди, а не за хвилини:
переглядаєш stack trace, пропонуєш гіпотезу, хочеш перевірити наступну
Швидкий рефакторинг одного методу або класу —
задача маленька і не потребує глибокого planning
Code review в реальному часі: тобі дають diff і хочеш миттєво отримати коментарі
Перебираєш варіанти реалізації: спробував один підхід, хочеш побачити альтернативу —
і так кілька разів
Залишайся на стандартному GPT-5.5 коли:
Autonomous задача на тривалий час — планування, реалізація фічі, написання тестів: тут швидкість відповіді не критична, важлива якість результату
Ліміт під тиском — Fast mode коштує 2.5× від стандартного; при активному використанні місячний ліміт вичерпається значно швидше
Більшість задач — стандартний GPT-5.5 і є рекомендованим дефолтом, Fast mode для виняткових ситуацій
Коротка відповідь: оновіть додаток і оберіть GPT-5.5 у model picker.
Якщо моделі ще немає — rollout поступовий, це нормально. Нижче — кроки
для кожної поверхні і що робити поки GPT-5.5 недоступний.
За офіційним changelog від травня 2026:
«GPT-5.5 є рекомендованим вибором для більшості задач у Codex.
Якщо ви не бачите GPT-5.5 — оновіть CLI, IDE-розширення або Codex App до останньої версії.
Під час rollout продовжуйте використовувати GPT-5.4.»
Codex App (macOS / Windows)
Оновити Codex App до останньої версії через меню або App Store
Відкрити новий тред → у composer знайти model picker
Обрати GPT-5.5 зі списку (або GPT-5.5 Thinking для складних задач)
Fast mode вмикається окремим перемикачем поруч з вибором моделі
Codex CLI
Запуск з конкретною моделлю через прапор:
codex --model gpt-5.5
Зміна моделі в активному треді без перезапуску:
/model gpt-5.5
Встановити GPT-5.5 як дефолт у config.toml:
[model]
default = "gpt-5.5"
VS Code extension
Оновити розширення через Extensions panel (Ctrl+Shift+X → оновити Codex)
У composer — model selector під input box
Обрати GPT-5.5; зміна застосовується до поточного і наступних тредів
JetBrains extension
Оновити через JetBrains Marketplace (Settings → Plugins → Updates)
У Codex composer — model selector під input box, аналогічно VS Code
API (з 24 квітня 2026)
GPT-5.5 доступний через Responses і Chat Completions API
з 24 квітня 2026.
Model string: gpt-5.5. Контекст в API — 1M токенів.
// Приклад для Responses API
{
"model": "gpt-5.5",
"input": "Зрефактори цей Spring Boot сервіс..."
}
Важливо: у Codex-поверхні (App / CLI / IDE) GPT-5.5 доступний тільки через
ChatGPT OAuth (підписка). Для API-key workflows у Codex
поки використовуйте gpt-5.4 або gpt-5.2-codex.
Якщо GPT-5.5 ще не з'явився
Rollout поступовий — це нормально, не всі акаунти отримують доступ одночасно
Перевірте чи оновлений додаток / CLI до останньої версії — це найчастіша причина
Тимчасово: продовжуйте з GPT-5.4. Для більшості задач різниця не критична
Практичне порівняння: GPT-5.4 vs GPT-5.5 для типових задач
Коротка відповідь: GPT-5.5 виграє найбільше на складних,
нечітких, multi-step задачах. На простих і добре визначених — різниця мінімальна,
і іноді важливіше обрати правильний режим (Fast mode, Thinking), ніж саму модель.
Рефакторинг модуля
GPT-5.4
GPT-5.5
Один клас / метод
Добре справляється
Порівнянно, трохи менше токенів
Multi-file рефакторинг
Може загубити зв'язки між файлами на великому scope
Краще «розуміє форму системи» — де лежить проблема і що ще буде зачеплено
Legacy-код з неявними залежностями
Потребує уточнень
Менше back-and-forth, краще навігація по неочевидних зв'язках
Рекомендація: для одного класу різниця мінімальна — можна залишатись на GPT-5.4.
Для рефакторингу, що зачіпає кілька модулів — GPT-5.5 відчутно точніший.
Написання тестів
GPT-5.4
GPT-5.5
Unit-тести на відомих патернах
Добре
Порівнянно, ~30–40% менше токенів
Integration-тести з неочевидними edge cases
Пропускає нетривіальні сценарії
Краще знаходить неочевидні граничні випадки
Тести для legacy-коду без документації
Потрібно детально описувати логіку
Краще інферить логіку з коду самостійно
Рекомендація: для типових unit-тестів на чистому коді —
Spark (швидше) або GPT-5.4 mini (дешевше). GPT-5.5 виправданий
для складних integration-тестів і legacy.
Дебаг production-issues
Сценарій
Рекомендована модель
Чому
Відомий stack trace, зрозуміла причина
Fast mode або Spark
Швидкість відповіді важливіша за глибину
Нестабільна помилка, незрозуміла причина
GPT-5.5 Thinking
Рефлексія перед відповіддю, менше хибних гіпотез
Production issue що торкається кількох сервісів
GPT-5.5 стандартний
Аналіз cross-service залежностей, planning
Автономна розробка фічі
Це де GPT-5.5 показує найбільший відрив від GPT-5.4.
Expert-SWE з медіанним часом виконання людиною 20 годин —
73.1% проти 68.5% — саме про це: довгі, складні, multi-step задачі
де модель самостійно планує, зустрічає перепони і продовжує без втрати контексту.
Типовий autonomous workflow у Codex з GPT-5.5:
Отримує задачу: «Додай endpoint для експорту звітів у PDF з фільтрацією по даті»
Планує: які класи змінювати, які створювати, як вписатись в існуючу архітектуру
Пише код, запускає тести, бачить фейл → сам визначає причину → виправляє
Повертає готовий diff або PR на рев'ю — без проміжних уточнень
GPT-5.4 справляється з цим сценарієм, але частіше потребує уточнень
при нестандартних ситуаціях і може загубити контекст на великому scope.
З мого досвіду — кейс AskYourDocs
Тестував GPT-5.5 на реальних задачах двох Spring Boot проєктів.
Ось конкретні спостереження:
Кейс 1: рефакторинг RAG pipeline в AskYourDocs.
Задача — розбити монолітний сервіс обробки документів на три окремих:
ingestion, chunking і embedding. Зачіпала 6 класів і конфіги Spring AI.
GPT-5.4 на цій же задачі раніше вимагав 3–4 уточнення щодо залежностей між бінами.
GPT-5.5 пройшов без проміжних питань — проаналізував
@ConditionalOnProperty-конфігурацію і врахував залежність
від OpenRouter та Ollama провайдерів самостійно. Результат прийняв з мінімальними правками.
Кейс 2: написання тестів для WebsCraft.
Для unit-тестів простих сервісів — різниця з GPT-5.4 мінімальна.
Де відчулась різниця: тести для Thymeleaf-шаблонів з JSON-LD і складними умовними блоками.
GPT-5.5 знайшов два граничних випадки (порожній FAQ-список і відсутній breadcrumb-батько)
які я сам пропустив при ручному рев'ю.
Що розчарувало: Fast mode при активному використанні
з'їдає ліміт швидко. За один активний день інтерактивного дебагу
2.5× коефіцієнт вартості відчувається вже до вечора.
Тепер я вмикаю Fast mode тільки для справді коротких interactive-задач,
а довгі autonomous залишаю на стандартному GPT-5.5.
Коротка відповідь: GPT-5.5 — найсильніша модель в Codex,
але має реальні обмеження які треба знати до початку. Особливо важливі:
різниця між контекстом у Codex і API, обмеження авторизації і вартість Fast mode.
Контекст 400K у Codex — не 1M
Найпоширеніша точка плутанини: GPT-5.5 підтримує 1M токенів контексту —
але тільки в API. У Codex-поверхні (App / CLI / IDE) ліміт 400K токенів.
Це підтверджено офіційною документацією.
Для дуже великих репозиторіїв (понад 400K токенів) —
або дробіть контекст вручну, або використовуйте GPT-5.4 через API з 1M вікном.
GPT-5.5 у Codex — тільки через ChatGPT OAuth
У Codex-поверхні (App / CLI / IDE) GPT-5.5 доступний тільки
при авторизації через ChatGPT OAuth (підписка Plus і вище).
За офіційною документацією Codex:
для API-key workflows у Codex використовуйте gpt-5.4
або gpt-5.2-codex.
В прямому API (Responses / Chat Completions) GPT-5.5 доступний через API-key з 24 квітня 2026.
Вища ціна за токен в API
GPT-5.5 в API коштує $5 / 1M input і $30 / 1M output токенів
— вдвічі дорожче за GPT-5.4 ($2.50 / $15).
OpenAI стверджує що token efficiency (~40% менше токенів на задачу)
компенсує різницю для більшості workloads.
Для Codex-підписок (Plus, Pro тощо) — вартість рахується в ліміті підписки,
а не в доларах напряму.
Fast mode — 2.5× вартості ліміту
Fast mode зручний, але дорогий: кожен запит коштує в 2.5× більше від ліміту
ніж стандартний GPT-5.5. При інтенсивному використанні впродовж дня
місячний ліміт вичерпується значно швидше ніж при роботі зі стандартним режимом.
Рекомендація: вмикайте Fast mode тільки для коротких interactive-задач,
autonomous залишайте на стандартному.
Rollout поступовий — GPT-5.5 може бути недоступний
Навіть з актуальним планом і оновленим додатком GPT-5.5 може бути відсутня
у вашому model picker. Rollout відбувається поступово і займає кілька тижнів.
Що робити: оновити додаток/CLI до останньої версії (найчастіша причина відсутності),
продовжувати з GPT-5.4 — для більшості задач різниця не критична.
GPT-5.5 Pro — тільки Pro/Business/Enterprise у ChatGPT
GPT-5.5 Pro (найпотужніший варіант) доступний тільки для Pro, Business і Enterprise
в ChatGPT. Plus отримує стандартний GPT-5.5 і Thinking, але не Pro-варіант.
В Codex GPT-5.5 Pro не виділений окремо в model picker — використовується
стандартний GPT-5.5.
Таблиця обмежень
Обмеження
Деталь
Обхідний шлях
Контекст у Codex
400K (не 1M)
GPT-5.4 через API для задач з >400K контекстом
Авторизація в Codex
Тільки ChatGPT OAuth
gpt-5.4 або gpt-5.2-codex для API-key workflows
Ціна API
2× дорожче за токен ніж GPT-5.4
Token efficiency частково компенсує; використовуй Batch для несрочних задач
Тестував GPT-5.5 на двох Spring Boot проєктах — WebsCraft і AskYourDocs —
у реальних умовах, не на синтетичних задачах. Ось що реально змінилось
у щоденній роботі порівняно з GPT-5.4.
Де відчув найбільший приріст
Multi-file задачі — головна різниця.
На AskYourDocs рефакторинг RAG pipeline торкнувся 6 класів одночасно.
GPT-5.4 на схожих задачах регулярно «губив» залежності між Spring-бінами
і потребував 3–4 уточнення. GPT-5.5 вперше пройшов увесь рефакторинг без проміжних питань —
розпізнав @ConditionalOnProperty-конфігурацію і врахував обидва провайдери
(OpenRouter для prod, Ollama для local) без підказки.
Це відчувається як якісна зміна, а не просто «трохи краще».
Тести для нетривіального коду.
Для Thymeleaf-шаблонів з JSON-LD GPT-5.5 знайшов два граничних випадки
які я сам пропустив при ручному рев'ю:
порожній FAQ-список і відсутній breadcrumb-батько.
GPT-5.4 у тому ж сценарії писав тести тільки для happy path.
Де різниця мінімальна або Spark краще
Прості unit-тести і boilerplate.
Для написання тестів на стандартних CRUD-сервісах або генерації DTO —
різниця між GPT-5.4 і GPT-5.5 практично непомітна.
У цих сценаріях я далі використовую
GPT-5.3-Codex-Spark (якщо задача маленька і потрібна швидкість)
або GPT-5.4 mini (якщо потрібна паралельна обробка без витрат основного ліміту).
Активний дебаг з відомим stack trace.
Тут Fast mode на GPT-5.5 дає гарний результат, але Spark усе одно швидший —
якщо він доступний у вашому плані. Для моніторингу і налагодження під час активної сесії
Spark залишається моїм першим вибором.
Що розчарувало
Fast mode і ліміт.
Перший тиждень я використовував Fast mode надто агресивно —
на задачах де він не потрібен. 2.5× коефіцієнт вартості ліміту
дуже швидко з'їдає місячний запас. Тепер правило просте:
Fast mode — тільки для interactive-задач до 10 хвилин.
Все довше — стандартний GPT-5.5.
400K контекст у Codex — реальне обмеження.
Намагався проаналізувати весь WebsCraft-проєкт (Spring Boot з усіма шаблонами і конфігами)
за один прохід — не вмістилось. Довелось ділити на логічні частини:
окремо web-layer, окремо service-layer, окремо Thymeleaf.
Для дуже великих репозиторіїв 400K — це реальна стеля.
Мій поточний workflow з GPT-5.5
GPT-5.5 стандартний — autonomous задачі: реалізація фічі, рефакторинг multi-file, написання складних тестів
GPT-5.5 Thinking — архітектурні рішення і нетривіальний дебаг
Fast mode — коротка interactive-сесія, перебір варіантів реалізації
Spark — активний дебаг з відомою причиною де важлива швидкість відповіді
GPT-5.4 mini — subagents для паралельних рутинних задач
Так — якщо GPT-5.5 вже з'явився у вашому model picker.
За рахунок token efficiency (~40% менше токенів на задачу)
реальне споживання ліміту для більшості задач залишається на тому ж рівні або знижується,
попри вищу ціну за токен в API.
Для автономних і multi-step задач різниця відчутна.
Якщо GPT-5.5 ще не доступний — оновіть додаток; під час rollout продовжуйте з GPT-5.4.
Яка різниця між GPT-5.5 і GPT-5.3-Codex?
GPT-5.3-Codex — спеціалізована coding-модель з 400K контекстом і фокусом на
agentic software engineering. GPT-5.5 ширша: coding + reasoning + computer use +
knowledge work, і при цьому розумніша — 82.7% проти 77.3% на Terminal-Bench 2.0.
Однак GPT-5.3-Codex залишається доступним через API-key у Codex
(GPT-5.5 через API-key у Codex-поверхні поки недоступний),
тому для API-key workflows вона все ще актуальна.
GPT-5.5 доступний безкоштовно?
Ні. У Codex GPT-5.5 доступний тільки для платних планів:
Plus ($20/міс), Pro ($100 або $200/міс), Business ($30/user/міс),
Enterprise, Edu і Go.
Free-план не має доступу до GPT-5.5 ні в ChatGPT, ні в Codex.
Що таке GPT-5.5 Thinking і чим він відрізняється від стандартного?
Thinking — варіант GPT-5.5 з посиленою рефлексією перед відповіддю.
Дає лаконічніші і точніші відповіді для складних задач:
архітектурних рішень, глибокого дебагу, research-питань.
Може бути трохи повільнішим. Доступний для Plus і вище.
Не плутати з GPT-5.5 Pro — це окремий найпотужніший варіант
тільки для Pro/Business/Enterprise в ChatGPT.
Чим GPT-5.5 в Codex відрізняється від GPT-5.5 в ChatGPT і в API?
Та сама модель, різні поверхні і контекст.
В Codex: 400K контекстне вікно, доступ до репозиторію,
terminal, браузеру, PR workflow, Skills, Fast mode.
В ChatGPT: стандартний діалог з інструментами, web search, Python.
В API: 1M контекстне вікно, повна кастомізація, ціна $5/$30 за 1M токенів.
Для agentic coding — Codex правильна поверхня.
Висновки
GPT-5.5 вийшла 23 квітня 2026 і стала дефолтною моделлю в Codex.
Ключові зміни для розробника: ~40% менше токенів на ту ж задачу,
та сама per-token latency що й GPT-5.4, якісно краща agentic-робота на multi-step задачах.
Контекст у Codex — 400K токенів, в API — 1M.
Ця різниця критична при виборі поверхні для роботи з великими репозиторіями.
GPT-5.5 лідирує на Terminal-Bench 2.0 (82.7%) і Expert-SWE (73.1%),
але Claude Opus 4.7 залишається сильнішим на SWE-Bench Pro (64.3% vs 58.6%).
Вибір моделі залежить від типу задачі — не від бренду.
Два нових режими змінюють workflow:
Thinking — для архітектурних рішень і складного дебагу;
Fast mode — для interactive-задач, але коштує 2.5× ліміту.
Найефективніший підхід у 2026 — комбінація режимів під тип задачі:
GPT-5.5 стандартний для autonomous coding, Thinking для архітектури,
Fast mode для interactive, Spark для real-time, mini для subagents.
Головна думка: GPT-5.5 — реальний крок вперед, а не маркетинговий апдейт.
Але максимальну користь дає не сама по собі модель,
а правильний вибір між GPT-5.5 стандартним, Thinking і Fast mode під конкретну задачу.
Це потребує тижня-двох практики — після чого workflow стає значно ефективнішим.
23 квітня 2026 OpenAI випустила GPT-5.5 — і одразу зробила її дефолтною моделлю в Codex.
Але не кожен апдейт насправді щось змінює у щоденній роботі. Цей — змінює.
Три речі, які важливі для розробника: менше токенів на ті ж задачі,
та сама швидкість що й GPT-5.4, і якісно новий...
Ця стаття — практичний гід для розробників що хочуть підключити GPT-Realtime-2 до свого проєкту. Ми розберемо архітектуру Realtime API, виберемо правильний метод підключення для вашого сценарію, напишемо першу робочу сесію з нуля і налаштуємо preambles, tool calls і recovery з реальним...
7 травня 2026 року OpenAI зробила анонс, який багато хто в спільноті розробників чекав давно: три нові голосові моделі в Realtime API. Флагман — GPT-Realtime-2 — перша в лінійці, де мислення рівня GPT-5 вбудоване прямо в голосовий потік. Без затримок між розпізнаванням і відповіддю. Без окремих...
Tool calling в Ollama — одна з найбільш неочевидних фіч локальних моделей.
Не тому що API складний. А тому що між «модель підтримує tools» у документації
і «модель стабільно викликає tools у продакшні» — велика різниця яку
можна виявити тільки під навантаженням.
Одні моделі...
12 лютого 2026 року OpenAI випустила GPT-5.3-Codex-Spark — і більшість розробників одразу запитали одне й те саме: «Це новий додаток? Мені треба щось перевстановлювати?» Ні. Spark — це модель всередині Codex App яку ти вже маєш. Просто інша модель у model picker — але з принципово іншим принципом...
OpenAI Codex у 2026 році — це не той інструмент, про який ви, можливо, читали кілька років тому. Оригінальний Codex API (2021–2023) був моделлю для автодоповнення коду на базі GPT-3, яка живила ранні версії GitHub Copilot. OpenAI закрила той API у березні 2023 року. Те, що існує сьогодні —...