17173 > 游戏资讯 > 科技新闻 > 正文

OpenAI 发布 GPT-5.3-Codex-Spark 模型:专为实时编程而生,可实现每秒超千 Token 的即时反馈

2026-02-13 08:08:10 神评论
17173 新闻导语

OpenAI发布GPT-5.3-Codex-Spark模型,专为实时编程而生!每秒超千Token即时反馈,提升软件开发效率。现已开放研究预览,快来体验!

感谢网友 Nuc_F、乌蝇哥的左手 的线索投递!

2 月 13 日消息,Cerebras 与 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打实时编程。这也是 OpenAI 与 Cerebras 合作的首个公开发布成果。

注:该模型由 Cerebras 提供算力支持,已于当地时间 2 月 12 日以“研究预览”(research preview)形式开放。

据介绍,Codex-Spark 主要面向对交互速度要求极高的实时软件开发场景,可实现超 1000 tokens/s 的推理速度,从而实现近乎即时响应的编码反馈。

OpenAI 在公告中指出,近年来“agentic coding”正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。

OpenAI 表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此 Codex-Spark 被设计为与 Codex 进行实时协作的模型,强调“快速、响应及时、可引导”,让开发者保持在工作中的主导位置。

从定位上看,Codex-Spark 被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI 称,在 SWE-Bench Pro、Terminal-Bench 2.0 等软件工程基准测试上,Codex-Spark 在完成任务耗时显著缩短的同时,能够给出比 GPT-5.1-Codex-mini 更好的回答。

在具体能力方面,OpenAI 强调 Codex-Spark 擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。

OpenAI 同时也对 Cerebras 硬件能力进行了介绍。据称,Wafer-Scale Engine 具备业内最大的 SoC 片上内存,可支撑用户实现每秒数千 token 级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多 TB 级别,以支持万亿参数模型的训练与推理。OpenAI 表示,预计在 2026 年把这种“超高速推理”能力带到更大规模的前沿模型上。

在上线范围方面,OpenAI 称 Codex-Spark 将以研究预览形式向 ChatGPT Pro 用户推送,覆盖 Codex 应用、CLI 以及 VS Code 扩展,同时 API 访问将向部分设计合作伙伴逐步开放。

【来源:IT之家】
关于GPT-5.3-Codex-Spark,OpenAI,Cerebras,实时编程,Codex,推理速度,软件开发,agentic coding,SWE-Bench Pro,VS Code的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷