OpenAI向部分活跃的Codex用户推出GPT-5.3-Codex-Spark 吐词速度每秒1000个Token
好的,我现在需要帮用户总结一篇文章,控制在100字以内。用户的要求很明确,直接写文章描述,不需要特定的开头。 首先,我快速浏览文章内容。文章主要讲OpenAI推出了GPT-5.3-Codex-Spark模型,这个模型速度很快,每秒生成1000个Token。主要面向活跃的Codex开发者,尤其是开通Plus订阅的用户。开发者会被邮件或应用内通知告知是否被选中测试。 接下来,我需要提取关键点:模型名称、速度、目标用户、通知方式。然后用简洁的语言把这些点连贯起来。 考虑到字数限制,可能需要省略一些细节,比如合作方Cerebras和性能表现的具体数据。重点放在模型特点和适用人群上。 最后,确保语言流畅自然,不使用复杂的术语,让用户一目了然。 </think> OpenAI 推出 GPT-5.3-Codex-Spark 模型,专为实时交互优化,支持快速生成代码和即时反馈。该模型面向活跃使用 Codex 的开发者开放,并通过邮件和应用内通知告知入选者。 2026-3-3 13:7:12 Author: www.landiannews.com(查看原文) 阅读量:7 收藏

推广

推广

#人工智能 OpenAI 向部分活跃的 Codex 用户推出 GPT-5.3-Codex-Spark 模型,该模型的亮点就是速度极快,每秒可以生成 1000 个 Token。对于开通 ChatGPT Plus 且活跃使用 Codex 进行开发的开发者,将有机会被选中测试这个新模型,被选中的开发者将会收到邮件和应用内通知。查看全文:https://ourl.co/111995

据 OpenAI Codex 团队发布的消息,现在该团队正在面向部分活跃使用 OpenAI Codex 的开发者推出 GPT-5.3-Codex-Spark 模型,该模型以吐字速度极快为特点。

当然免费用户暂时是没法使用这个新模型的,Codex 团队仅面向开通 ChatGPT Plus 订阅且活跃使用 Codex 的部分开发者提供,这指的可能是使用 Codex 客户端的开发者,不然我们这些反代到 OpenClaw 的用户岂不是也算是活跃用户?

Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,今年 1 月份双方宣布合作时就提到要做低延迟推理,这个新模型在 Cerebras 晶圆级引擎 WSE-3 上运行,推理速度每秒超过 1000 个 token。

OpenAI向部分活跃的Codex用户推出GPT-5.3-Codex-Spark 吐词速度每秒1000个Token

简单来说就是后续开发者使用 Codex-Spark 进行编程任务时,模型几乎会实时响应开发者的指令并做到秒回,不需要开发者盯着屏幕发呆直到模型返回代码。

那怎么才能知道自己有没有被选中可以使用 Codex-Spark 进行开发呢?注意看邮件和 Codex 应用内通知,OpenAI 会通过邮件和应用内通知向被选中的开发者提醒使用 Codex-Spark 模型。

目前还不清楚 OpenAI 准备什么时候再开放 Codex-Spark 模型,现阶段除了 OpenAI 挑选的开发者外,还不能通过官方 API 平台调用,所以着急的开发者也只能继续等待。

蓝点网此前关于 Codex-Spark 的介绍:

OpenAI 之前的 Codex 模型擅长的是长时间自主运行的任务,比如让 AI 模型跑几个小时甚至几天来完成复杂的工程任务,开发者基本不需要干预。

但这种模式有个问题:开发者会觉得自己直接被晾到一边,等待时间很长,中间也没有机会插手任务来调整方向,这对部分开发者来说非常不友好。

Codex-Spark 就是来弥补这个短板的,该模型专门针对实时交互场景进行优化,开发者可以边写代码边协作,可以随时打断模型、修改开发方向,改完也能立刻看到结果。

也就是现在 Codex 有两种不同的模式:需要深度思考的长任务交给大模型慢慢跑,日常写代码改 BUG 之类的快速迭代就使用 Spark 模型秒回。

性能表现:

虽然 Codex-Spark 是基于 Codex 的精简版,不过在能力并没有显著下降,在基准测试中 Codex-Spark 表现超过 GPT-5.1-Codex-mini,而任务完成时间只是 GPT-5.3-Codex 的零头。

默认情况下 Codex-Spark 的工作风格比较轻量化,只做最小化的精准修改,不会自动跑测试等,除非开发者主动要求,这些都是为了最大限度地保证实时交互的流畅性。

不过现阶段该模型有如下限制:仅支持 128K 上下文窗口、仅支持文本不支持多模态、研究预览阶段有独立的速率限制,高峰期可能需要排队。

OpenAI 还在训练过程中发现仅仅是模型推理快还不够,需要把整个请求和响应链路的延迟都降下来才行,所以 OpenAI 做了不少工作,包括重写整个推理堆栈。


文章来源: https://www.landiannews.com/archives/111995.html
如有侵权请联系:admin#unsafe.sh