page contents

OpenAI向部分活跃的Codex用户推出GPT-5.3-Codex-Spark 吐词速度每秒1000个Token

据 OpenAI Codex 团队发布的消息,现在该团队正在面向部分活跃使用 OpenAI Codex 的开发者推出 GPT-5.3-Codex-Spark 模型,该模型以吐字速度极快为特点。

attachments-2026-03-VmCZVByT69c1f4dfb3837.png据 OpenAI Codex 团队发布的消息,现在该团队正在面向部分活跃使用 OpenAI Codex 的开发者推出 GPT-5.3-Codex-Spark 模型,该模型以吐字速度极快为特点。

当然免费用户暂时是没法使用这个新模型的,Codex 团队仅面向开通 ChatGPT Plus 订阅且活跃使用 Codex 的部分开发者提供,这指的可能是使用 Codex 客户端的开发者,不然我们这些反代到 OpenClaw 的用户岂不是也算是活跃用户?

Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,今年 1 月份双方宣布合作时就提到要做低延迟推理,这个新模型在 Cerebras 晶圆级引擎 WSE-3 上运行,推理速度每秒超过 1000 个 token。

简单来说就是后续开发者使用 Codex-Spark 进行编程任务时,模型几乎会实时响应开发者的指令并做到秒回,不需要开发者盯着屏幕发呆直到模型返回代码。

那怎么才能知道自己有没有被选中可以使用 Codex-Spark 进行开发呢?注意看邮件和 Codex 应用内通知,OpenAI 会通过邮件和应用内通知向被选中的开发者提醒使用 Codex-Spark 模型。

目前还不清楚 OpenAI 准备什么时候再开放 Codex-Spark 模型,现阶段除了 OpenAI 挑选的开发者外,还不能通过官方 API 平台调用,所以着急的开发者也只能继续等待。

蓝点网此前关于 Codex-Spark 的介绍:

OpenAI 之前的 Codex 模型擅长的是长时间自主运行的任务,比如让 AI 模型跑几个小时甚至几天来完成复杂的工程任务,开发者基本不需要干预。

但这种模式有个问题:开发者会觉得自己直接被晾到一边,等待时间很长,中间也没有机会插手任务来调整方向,这对部分开发者来说非常不友好。

Codex-Spark 就是来弥补这个短板的,该模型专门针对实时交互场景进行优化,开发者可以边写代码边协作,可以随时打断模型、修改开发方向,改完也能立刻看到结果。

也就是现在 Codex 有两种不同的模式:需要深度思考的长任务交给大模型慢慢跑,日常写代码改 BUG 之类的快速迭代就使用 Spark 模型秒回。

性能表现:

虽然 Codex-Spark 是基于 Codex 的精简版,不过在能力并没有显著下降,在基准测试中 Codex-Spark 表现超过 GPT-5.1-Codex-mini,而任务完成时间只是 GPT-5.3-Codex 的零头。

默认情况下 Codex-Spark 的工作风格比较轻量化,只做最小化的精准修改,不会自动跑测试等,除非开发者主动要求,这些都是为了最大限度地保证实时交互的流畅性。

不过现阶段该模型有如下限制:仅支持 128K 上下文窗口、仅支持文本不支持多模态、研究预览阶段有独立的速率限制,高峰期可能需要排队。

OpenAI 还在训练过程中发现仅仅是模型推理快还不够,需要把整个请求和响应链路的延迟都降下来才行,所以 OpenAI 做了不少工作,包括重写整个推理堆栈。

更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-05-rLS4AIF8628ee5f3b7e12.jpg

  • 发表于 2026-03-24 10:23
  • 阅读 ( 27 )
  • 分类:行业资讯

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
Pack
Pack

1920 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 2228 文章
  3. Pack 1920 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章