GPT-5.3-Codex-Spark — надшвидка модель від OpenAI та Cerebras
16:49, 13.02.2026
OpenAI випустила спеціалізовану версію для дуже швидкої генерації коду — GPT-5.3-Codex-Spark. Ця новинка вирізняється неймовірною швидкістю: модель може видавати понад 1000 токенів на секунду.
Продуктивність Spark
Продуктивність Spark стала можливою завдяки відмові від традиційних GPU на користь спеціалізованих чипів Cerebras Wafer Scale Engine 3. Завдяки новій архітектурі та постійному WebSocket-з’єднанню затримку видачі токенів вдалося скоротити на 80%.
Цей реліз — перший результат колаборації OpenAI та Cerebras, проте це лише версія GPT-5.3-Codex, а не повноцінна нова модель. Spark створена з упором на кодинг у реальному часі, тому пропонує точкові правки та адаптацію коду в 15 разів швидше за звичайні моделі.
Бенчмарки
Феноменальну швидкість балансує менша точність відповідей.
SWE-Bench Pro показує, що Spark справляється із запитом за 2–3 хвилини з результатом 52%, тоді як старша модель досягає 57%, але витрачає на це 16 хвилин.
Terminal-Bench 2.0 показує, що точність відповідей у Spark — 58,4% проти 77,3% у флагмана.
Попри це, Spark значно випереджає міні-модель GPT-5.1-Codex-mini. У Cerebras припускають, що нова модель може зробити миттєвий відгук новим стандартом в індустрії.
Як можна протестувати Spark?
Наразі модель перебуває на стадії research preview і доступна передплатникам ChatGPT Pro через CLI, розширення для VS Code та додаток Codex. Модель не підтримує зображення, а API відкриті лише для вузького кола партнерів.