page contents

Codex使用GPT-5.4支持1M上下文 超过272K将按照2X计算倍率

这段时间 OpenAI 为鼓励用户使用其编程开发工具 Codex 因此为用户提供双倍配额,如果遇到 Codex 故障的时候 OpenAI 还会重置配额,本周 Codex 团队就因为故障多次重置配额,这倒是让不少开发者或 OpenClaw AI 机器人用户非常开心。

attachments-2026-03-bvgO0KZO69c7368ec61e4.png这段时间 OpenAI 为鼓励用户使用其编程开发工具 Codex 因此为用户提供双倍配额,如果遇到 Codex 故障的时候 OpenAI 还会重置配额,本周 Codex 团队就因为故障多次重置配额,这倒是让不少开发者或 OpenClaw AI 机器人用户非常开心。

昨天夜里 OpenAI 推出新旗舰模型 GPT-5.4,该模型也已经支持在 Codex 中使用,并且 Codex 还可以通过 /fast 命令开启快速模式,当然开启快速模式也是有代价的。

具体来说现在是等于正常配额状态:

  1. GPT-5.4 模型最高支持 1M 上下文窗口,更长的上下文窗口有助于提升编码能力。
  2. 若在 Codex 中使用且上下文超过 272K 时,超出部分将按照 2X 倍率计算配额。
  3. 开发者还可以使用 /fast 命令启用快速模式,启用后生成速度提升 1.5X,但也按照 2X 倍率计算配额。

所以 OpenAI 提供显示双倍配额但又通过 Codex 消耗双倍配额,这对部分使用频率极高的开发者来说等于配额变成正常状态,这意味着后续使用可能更快触发 5 小时配额限制和当周配额限制。

按照 OpenAI 文档所说,快速模式也只能在 272K 以内使用,按照 2X 倍率计算配额,对于超过 272K 部分将按照标准倍率计算,这或许也是部分开发者开启快速模式后,对于超过 272K 内容感觉响应速度变慢的原因。

更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-05-rLS4AIF8628ee5f3b7e12.jpg

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
Pack
Pack

1920 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 2228 文章
  3. Pack 1920 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章