page contents

OpenAI推出实时编程模型GPT-5.3-Codex-Spark 提供秒级实时响应快速编写代码

OpenAI 日前宣布在 GPT-5.3-Codex 的基础上推出 GPT-5.3-Codex-Spark 研究预览版,该模型也是 OpenAI 首个专门为实时编程而设计的人工智能模型。

attachments-2026-03-ZpCfe0iZ69ae25b75a9b5.pngOpenAI 日前宣布在 GPT-5.3-Codex 的基础上推出 GPT-5.3-Codex-Spark 研究预览版,该模型也是 OpenAI 首个专门为实时编程而设计的人工智能模型。

Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,今年 1 月份双方宣布合作时就提到要做低延迟推理,这个新模型在 Cerebras 晶圆级引擎 WSE-3 上运行,推理速度每秒超过 1000 个 token。

简单来说就是后续开发者使用 Codex-Spark 进行编程任务时,模型几乎会实时响应开发者的指令并做到秒回,不需要开发者盯着屏幕发呆直到模型返回代码。

目前 Codex-Spark 以研究预览版的形式面向 ChatGPT Pro 订阅用户开放,支持 OpenAI Codex、CLI 以及 VS Code 扩展程序,而 API 暂时仅面向少数合作伙伴提供。

主要定位就是实时编程:

OpenAI 之前的 Codex 模型擅长的是长时间自主运行的任务,比如让 AI 模型跑几个小时甚至几天来完成复杂的工程任务,开发者基本不需要干预。

但这种模式有个问题:开发者会觉得自己直接被晾到一边,等待时间很长,中间也没有机会插手任务来调整方向,这对部分开发者来说非常不友好。

Codex-Spark 就是来弥补这个短板的,该模型专门针对实时交互场景进行优化,开发者可以边写代码边协作,可以随时打断模型、修改开发方向,改完也能立刻看到结果。

也就是现在 Codex 有两种不同的模式:需要深度思考的长任务交给大模型慢慢跑,日常写代码改 BUG 之类的快速迭代就使用 Spark 模型秒回。

性能表现:

虽然 Codex-Spark 是基于 Codex 的精简版,不过在能力并没有显著下降,在基准测试中 Codex-Spark 表现超过 GPT-5.1-Codex-mini,而任务完成时间只是 GPT-5.3-Codex 的零头。

默认情况下 Codex-Spark 的工作风格比较轻量化,只做最小化的精准修改,不会自动跑测试等,除非开发者主动要求,这些都是为了最大限度地保证实时交互的流畅性。

不过现阶段该模型有如下限制:仅支持 128K 上下文窗口、仅支持文本不支持多模态、研究预览阶段有独立的速率限制,高峰期可能需要排队。

OpenAI 还在训练过程中发现仅仅是模型推理快还不够,需要把整个请求和响应链路的延迟都降下来才行,所以 OpenAI 做了不少工作,包括重写整个推理堆栈。

改进的优化措施对所有模型都生效:

  • 引入持久化的 WebSocket 连接,客户端和服务器之间的往返开销降低 80%
  • 每个 token 的传输开销降低 30%
  • 首个 token 的响应时间缩短 50%

不过 WebSocket 目前默认仅给 Codex-Spark 模型开放,后续 OpenAI 会将该特性覆盖到所有模型,到时候使用其他模型的用户也可以看到体验上的改进。

更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-05-rLS4AIF8628ee5f3b7e12.jpg

  • 发表于 2026-03-09 09:43
  • 阅读 ( 26 )
  • 分类:行业资讯

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
Pack
Pack

1875 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 2228 文章
  3. Pack 1875 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章