17173 > 游戏资讯 > 科技新闻 > 正文

Claude 一夜拆掉 AI 编程天花板:百万 Token 上下文登场,吞下整个代码库

2026-03-14 16:03:56 神评论
17173 新闻导语

Claude突破AI编程极限:100万token上下文窗口正式上线,可吞下整个代码库,统一价格零溢价,彻底改写开发方式!

感谢网友 会弹琴的九号 的线索投递!

出大事了,刚刚,Claude 把上下文窗口一口气撑到 100 万 token!整套代码库、海量论文、长对话一次读完,AI 真正拥有「超长工作记忆」。AI 编程军备竞赛,正在被彻底改写。

最近几天,开发者圈接连出现炸弹。今天凌晨,有开发者在 X 上发帖说 Codex 桌面版太猛了,自己彻底弃用了十多年的老编辑器。Brockman 秒回:「是的,我也是。」

谁能想到,就在同一天,Anthropic 来了一发更大的:

Claude Opus 4.6 和 Sonnet 4.6 的百万 token 上下文窗口,正式全面上线。

没有 beta 标签,没有长文本溢价,没有速率限制歧视。

90 万 token 的请求和 9000 token 的请求,每个 token 价格一模一样。

一边是 OpenAI 总裁亲手埋葬旧时代的编辑器,一边是 Anthropic 把 AI 的「工作记忆」一口气撑到 100 万 token。

AI 编程的军备竞赛,刚刚换上了全新的弹药。

是的,Anthropic 又双叒上新了,速度简直快到让人反应不过来。

你能相信,自从 2026 以来,Anthropic 的发布是这个节奏吗?

下面这张梗图,简直太形象了。

Claude 获得 100 万 token 的上下文窗口,意味着什么?

从此,它可以一次性理解庞大的代码库,处理海量研究论文和数据集,推理冗长的对话和文件,保留更多上下文信息,同时避免遗漏。

同时,它还可以管理 Vibecoding 的整个项目,还能更快地解决漏洞和错误。

一句话总结就是,Claude 凭借一己之力,撑起了整个经济体!

这次更新,到底炸在哪?

先说一个直觉。

100 万 token,大约相当于 750 万个英文单词,或者一整套《哈利 · 波特》系列的 7 倍。

但对于开发者来说,这个数字的含义要具体得多。

它意味着你可以把一整个代码库、数千页的合同文件、或者一个长时间运行的 AI 智能体的完整执行轨迹(包括所有的工具调用、观察结果和中间推理过程),一股脑塞给 Claude,然后直接开始工作。

不需要分块,不需要摘要,不需要费尽心机地管理上下文窗口。

过去,Claude 只有 20 万 token 的上下文窗口。开发者不得不手动挑文件、做有损摘要、不断清理对话历史。

如今,Anthropic 用百万级的上下文窗口把这扇门彻底拆掉了。

但窗口撑大只是第一步。

真正的问题是:塞进去 100 万 token,模型还能记住里面的细节吗?

因为,很多模型虽然宣称支持超长上下文,但在实际推理中会出现一个问题 —— 信息遗忘。

也就是说,虽然模型「看到了」内容,但无法在推理时正确检索。

Anthropic 在进行了一番测试后发现,答案是,能!

在专门考验超长文本「大海捞针」能力的 MRCR v2 测试中,Opus 4.6 拿到了 78.3% 的高分,同等上下文长度的前沿大模型中排名第一。

这意味着模型可以在海量上下文中找到关键细节,正确关联信息,从而进行复杂推理。

作为对比,上一代的 Sonnet 4.5 在同一个测试中只拿到了 18.5%。

定价也是杀手锏

这一次 Anthropic 在定价上打出了一张极其凶狠的牌:统一价格,零溢价。

在最新公告中,Anthropic 宣布:Claude Opus 4.6 与 Sonnet 4.6 现在都支持完整的 1M token 上下文窗口,并且不再收取长上下文溢价,完整速率限制可用,而且无需 Beta Header。

Opus 4.6 每百万 token 输入 5 美元、输出 25 美元,Sonnet 4.6 输入 3 美元、输出 15 美元,全窗口一口价。

此前 beta 阶段,超过 20 万 token 的请求输入价格翻倍、输出乘以 1.5 倍,很多团队因此只能偶尔尝鲜。

现在这个门槛彻底没了,长上下文从奢侈品变成了标配。

横向对比来看:

Google 的 Gemini 2.5 Pro 同样支持百万 token 窗口,但超过 20 万 token 仍需支付溢价。

OpenAI 的 GPT-4.1 提供百万 token 统一定价,但最强的 GPT-5.4 上下文窗口上限只有 25.6 万 token。

而 Claude 是现在唯一一个旗舰级模型全线都提供百万 token 统一定价的模型家族。

除了价格,这次 GA 还带来了一系列实打实的体验升级。

输入能力大幅提升:600 张图片或 PDF

除了文本长度,Claude 这次还扩展了多模态输入能力。

单次请求最多支持 600 张图片或 600 页 PDF。相比之前的 100 个媒体文件,直接提升了 6 倍。

这意味着一整套设计系统的截图、一份长达数百页的合同扫描件,都可以一次性塞进去。

而且,这项功能已在 Claude 原生平台、微软 Azure Foundry 和谷歌云 Vertex AI 同步上线。

这就意味着企业用户可以直接在云平台上调用。

与此同时,计费与速率全量打通。

过去 Beta 阶段,长上下文请求有时会遭遇更低的速率限制,现在这个歧视没了。不管请求多长,标准账户的吞吐量额度在整个百万窗口内完全适用。

开发者体验,也被简化了

还有一个很受开发者欢迎的大更新,就是超过 20 万 token 的请求自动生效,不再需要添加 beta 请求头。

过去使用百万上下文,需要额外配置:

anthropic-beta:1m-context

现在,这一过程已经被取消,超过 200K tokens 的请求,会自动启用长上下文能力。

如果代码里仍然保留旧的 Beta Header,系统会自动忽略,不需要修改代码。

这一点看似小改动,但对于开发者来说非常重要。

因为它意味着,百万上下文已经从「实验功能」变成默认能力!

长对话终于不再被压缩

对 Claude Code 用户来说,变化更直接:

百万上下文现在已内置于 Max、Team 和 Enterprise 版本的 Opus 4.6 中,会话会自动调用完整窗口,不再消耗额外额度。

更关键的是,这大幅减少了上下文的强制压缩次数。

过去用户一加载大型 PDF、数据集或图片,系统就不得不压缩上下文,丢掉的恰恰是最重要的工作内容。

如今,Anthropic 已将上下文压缩事件减少了 15%。

AI 编程大战,正在进入白刃战

Claude 百万上下文的正式上线,不是孤立事件。它发生在 AI 编程赛道竞争最白热化的时刻。

就在几天前,WIRED 杂志发了一篇重磅长文,标题直接捅破窗户纸:《揭秘 OpenAI 追赶 Claude Code 之路》。没看错,在 AI 编程这条万亿美元赛道上,OpenAI 是追赶者。

故事充满戏剧性。OpenAI 早在 2021 年就有了 Codex 项目,Brockman 当时就说「你拥有了一个可以执行命令的系统」。

但 ChatGPT 在 2022 年底横空出世,两个月狂揽 1 亿用户,所有资源被抽调,Codex 团队直接拆散。

此后整整几年,OpenAI 没有专门的团队做 AI 编程产品。

相比之下,Anthropic 则一头扎进了编程赛道。

结果呢?

Claude Code 年化收入超过 25 亿美元,Codex 到 2026 年 1 月底刚过 10 亿美元。

2025 年 9 月 Codex 的使用量只有 Claude Code 的 5%,到 2026 年 1 月飙到 40%。

追赶速度惊人,但差距依然巨大。

OpenAI 中间还试图以 30 亿美元收购 AI 编程初创公司 Windsurf 来弯道超车,结果微软横插一杠想要知识产权,交易冻结数月后告吹。

Google 趁机挖走 Windsurf 创始人,剩余团队被 Cognition 收编。

Altman 的回应倒是坦然:「你不可能掌控每一笔交易。」

当程序员不再写代码

更狠的变化,正在每一个开发者的工位上发生。

WIRED 记者在 OpenAI 总部旁观了一场 Codex 黑客松。

100 号工程师,四个小时,全部用 Codex 搓 Demo。搁以前得花几天甚至几周的项目,一下午齐活。

而百万上下文窗口,会把这一切推向更极端的地步。

首批用户的反馈已经很说明问题。

Cognition 的创始工程师 Adhyyan Sekhsaria 说得很直白:

大型代码差异以前根本塞不进 20 万 token 的窗口,智能体不得不分块处理,导致跨文件的依赖关系丢失。

而百万级的上下文让他们可以一次性喂入完整的 diff,用更简单的架构获得了更高质量的代码审查。

企业支出管理平台 Ramp 的工程师 Anton Biryukov 描述了一个更有画面感的痛点:

Claude Code 在搜索 Datadog、数据库和源代码时,一口气能烧掉 10 万多个 token,然后上下文压缩一启动,细节就没了。

相当于,你是在原地打转地 debug。

而有了百万上下文之后,搜索、聚合边界条件、提出修复方案,在一个窗口里就能全部完成。

法务协作平台 GC AI 的 CTO Bardia Pourvakil 的说法更直观:

企业内部律师终于可以把五轮谈判的 100 页合伙协议全部塞进一个会话,看到完整的谈判弧线,不用再在不同版本之间来回切换。

最反直觉的发现来自数据分析平台 Hex,他们把 Opus 的上下文窗口从 20 万提升到 50 万之后,智能体不仅没有消耗更多 token,反而整体用量更少了。

更大的视野带来了更高的效率,AI 不再需要反复搜索和重建上下文,一次看全,一次搞定。

开发者的角色,正在被重新定义

Brockman 的感悟,让我们深刻理解这场变革的含义。

他说,不再需要亲手写代码「让人无比自由,大脑终于卸下了一堆不必要细节的重担」。

但话锋一转,当你变成「这支由几十万个智能体组成的庞大舰队的 CEO」时,「你就不再像以前那样,扎在泥里去弄清楚每个具体问题到底是怎么被解决的了。」

这种感觉,就像是「正在失去对解决问题最敏锐的那种脉搏感知」。

市场已经用真金白银投了票。

《华尔街日报》把上个月 1 万亿美元的科技股大跌归因于 Claude Code。

Anthropic 宣布能翻新 IBM 大型机上的 COBOL 遗留系统后,IBM 股价迎来 25 年来最黑暗的一天。

如今,当 AI 的记忆不再有天花板,开发者的工作方式就被彻底改写。

你猜,下一个要被 Anthropic 颠覆的领域,是哪一个?

参考资料:

https://x.com/gdb/status/2032514978599600295

https://claude.com/blog/1m-context-ga

https://www.wired.com/story/openai-codex-race-claude-code/

【来源:IT之家】
关于Claude,AI编程,上下文窗口,token,Anthropic,Codex,开发者,代码库,智能体,定价的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷