С разницей в пару минут — GPT-5.3‑Codex от OpenAI

Мы — AI for Devs: разбираем модели, ИИ‑агентов и инструменты для разработчиков. Делаем практичные гайды, бенчмарки и выкладываем рабочие паттерны — всё, что помогает быстрее строить продукты с LLM. Меньше шума, больше пользы и кода. Подписывайтесь — будет чем прокачать ваш стек.

gpt-5.3-codexopenaiмодель

Модель объединила кодинг-возможности GPT-5.2-Codex и reasoning GPT-5.2. По заявлению OpenAI, она работает примерно на 25% быстрее и лучше держит контекст в длинных сессиях с инструментами, терминалом и GUI-приложениями.

GPT-5.3-Codex может выполнять задачи часами или днями, при этом пользователь может вмешиваться в процесс: уточнять требования, менять направление работы и получать промежуточные апдейты без перезапуска агента.

Интересный факт: ранние версии модели использовались при её же разработке. Codex помогал отслеживать обучение, анализировать логи, диагностировать баги, масштабировать GPU-кластеры и разбирать аномалии в тестах.

Зато бенчмарки Anthropic и OpenAI сделали красивые, и та и другая модель лидер в своих маркетинговых материалах :D

Ну что, Gemini тоже сегодня ждать?)

@ai_for_devs

Линейный график SWE‑Bench: сравнение точности GPT‑5.3‑Codex и GPT‑5.2 по увеличению числа токенов вывода; видна лидирующая линия GPT‑5.3.
График SWE‑Bench: GPT‑5.3‑Codex показывает более высокую точность при увеличении длины вывода.
Столбчатая диаграмма Terminal‑Bench 2.0: GPT‑5.3‑Codex около 77% точности, сравнение с GPT‑5.2‑Codex и GPT‑5.2 на нижних столбцах.
Terminal‑Bench 2.0 — GPT‑5.3‑Codex опережает предыдущие версии в задачах терминала.
Таблица с бенчмарками и метриками: значения по SWE, Terminal‑Bench, OverAll и другим тестам для GPT‑5.3‑Codex и GPT‑5.2.
Таблица с подробными результатами бенчмарков по нескольким метрикам.

Читайте так же