IPO承压下的信任背叛?Claude强制KYC的背后,Anthropic是否已忘记初心?

2026-04-28 15:12:33 神评论
17173 新闻导语

揭秘Anthropic强制KYC背后真相!IPO压力下的信任危机,Claude身份验证引发隐私争议。深度解析安全人设崩塌与行业格局重构,点击了解内幕!

2026年4月14日,Anthropic在事先未有预兆的情况下在Claude平台大规模启用身份验证(KYC)机制。根据官方说明,部分用户在访问某些功能时,可能会收到身份验证提示,将被要求提交政府颁发的实体带照片证件(护照、驾照、身份证等),并通过摄像头完成实时自拍活体检测。次日,“Identity verification”(身份验证)政策页面正式在Claude官网帮助中心上线。

图片来源:Anthropic官网帮助中心身份验证政策页面截图

目前公开反馈触发了验证的用户,大多是在订阅Claude最高付费档位Max计划时触发了流程,此外还包括高频使用用户和触发风控或疑似灰产场景的用户。身份验证机制的突然上线导致大量开发者叫苦不迭:依赖Claude Code的工作流断裂,产品链路岌岌可危。与之伴随的还有不少用户由于AI的误判而惨遭封禁。

而触及到了隐私安全、地域歧视等敏感话题则是此次事件能够获得如此大热度的原因。一方面是海外用户所担忧的隐私与误封风险,从验证机制本身出发,要求上传护照、人脸识别的金融级验证本就敏感;与此同时第三方服务商Persona又曾被曝存在漏洞,加剧了隐私泄漏及数据安全担忧。

图片来源:Persona官网服务公司页面截图

据悉,提供身份验证机制的第三方服务商Persona Identities虽为OpenAI、LinkedIn等科技巨头提供核心服务,但其安全记录屡受质疑。此前,因导致约7万Discord用户个人信息泄露,双方合作不到一个月便告终止。今年年初,其承建的美国联邦政府身份平台又因配置失误,将53MB的完整源代码暴露于公网,再度引发安全争议。

另一方面,则在于其身份验证政策对“不支持地区”用户,尤其是中国大陆地区用户浓浓的针对与防范态度。根据官方说明,即使用户成功完成了证件上传和活体检测,如果系统检测到账号是从“不支持的地区”创建的,账号仍可能在验证后被禁用。

图片来源:Anthropic官网帮助中心身份验证政策页面截图

国内社区V2EX、知乎等的反应迅速而激烈。V2EX上有用户指出:“不验证功能受限,验证了身份暴露,两难困境。”而正如一位国内用户自嘲:“验证本身就是个陷阱,主动递上护照等于自曝国籍。”验证通过后反而更可能被封号。

更具讽刺意味的是,有网友把新规定发给Claude Opus 4.6,结果便是连Claude自己也否定了自家公司的KYC规则,还鼓励用户把这事写出来,公开批评其行为。

图片来源:量子位微信公众号

除了触及敏感话题带来的热度外,核心用户最为担忧,或者说关心的,实则是事件背后Anthropic一贯态度的变化,乃至其象征意义或对整个行业产生深远的影响。

用户激烈的反应,乃至对强制KYC的强烈不满,根源在于Anthropic“高道德人设”与“高压迫感手段”之间的巨大落差。回顾其发展史,长期以“AI安全先锋”自居,或能理解用户面对这巨大反差下的不适与无措。

从OpenAI“叛将”到万亿独角兽

2020年底,OpenAI研究副总裁Dario Amodei与妹妹Daniela Amodei递交辞呈,带着其他几个OpenAI离职骨干,在旧金山后院搭起帐篷创立Anthropic。2026年4月7日,Anthropic对外公布,公司年化收入已突破300亿美元,超过OpenAI同期的250亿美元,而这也是自2022年ChatGPT发布以来,首次有竞争对手在收入规模上超越OpenA。

来源:华尔街日报关于OpenAI与Anthropic之间恩怨的相关报道截图

Dario在OpenAI领导了GPT-2和GPT-3的开发,期间便高度关注模型潜在风险,主张在模型迭代前建立严格的安全评估机制。离开的原因则并非外界传言的“反对与微软合作”。在后来的一次访谈节目中,他透露了自己的想法:与其留在OpenAI争取自己的愿景,不如“带着一些你信任的人去实现自己的愿景。”这份“安全优先”的AI理念也成为了Anthropic刻在基因里的核心准则。

Anthropic的创始理念确立了用一套透明、明确的“宪法”来约束AI的方向。2022年12月,正式发表了论文《Constitutional AI: Harmlessness from AI Feedback》,标志着其核心的“宪法AI”(Constitutional AI)理论体系的正式问世。这套训练机制框架为AI模型设定了诚实无害的原则,使决策过程可追溯、可审计。

图片来源:Constitutional AI基础架构截图而依托这套框架运行的Claude自然在安全性方面显得出类拔萃。2025年硅谷一项衡量AI“虚构事实”倾向的核心测试“幻觉率”测试中,Claude 3.5 Sonnet仅为3.9%,显著优于行业基准GPT-4的5.8%。更重要的是,“AI宪法”的存在直接解决了企业,尤其是合规要求极高的金融、法律、政务等行业对模型不可控的恐惧。从而成为了Anthropic在企业级市场中脱颖而出的核心竞争力。根据Menlo Ventures 2025年AI报告,在企业级LLM API市场上,Anthropic在2025年底的市占率则达到了40%。而OpenAI则从2023年50%的市占率下滑到了27%,而且趋势似乎并没有逆转的意思。

图片来源:Menlo Ventures 2025年AI报告企业级LLM API市占率截图

围绕“安全优先”原则所积累的品牌口碑也帮助其在Agent赛道的重要场景中取得了优势,其中在编程辅助场景的领先优势尤为突出。Anthropic于2025年5月向全量用户开放编程辅助工具Claude Code后,其三个月使用量便实现超10倍增长。截至2026年初,Claude Code年化收入规模已超25亿美元。

与此同时,Anthropic还在通过迭代模型宪法,发布安全与威胁情报报告,限制新模型开放范围等方式持续巩固其“安全优先,值得信任”的“人设”。直至今年2月,Anthropic迎来了“出圈时刻”——面对五角大楼解除Claude军事用途限制的最后通牒,CEO Dario Amodei 发布声明表示“无法昧着良心”接受,坚守了“不用于对美国公民的大规模监控”和“不用于完全自主致命武器”两条红线。

来源:美国国防部首席技术官埃米尔·迈克尔社交账号截图

尽管Anthropic最终被美国政府列为“供应链风险”并痛失价值2亿美元的巨额订单,但其“负责任”的公众形象与“安全优先”的品牌口碑却逆势登顶,达到前所未有的高度。此后,OpenAI仓促接手补位,反而引爆了“逃离GPT”的抵制浪潮,这一事件更成为Anthropic将口碑优势转化为市场流量的关键催化剂。根据点点数据统计,其移动端应用《Claude by Anthropic》3月初在美国地区的日下量超越《ChatGPT》登顶,日下载量峰值超过20万。

《Claude by Anthropic》、《ChatGPT》2026年1-3月日下载量趋势.点点数据

纵观Anthropic五年来的发展史,从OpenAI的“叛将”成长为千亿市值的巨头,“安全优先”的产品定位功不可没。至此,其强制推行KYC的内在原因或已浮出水面。

KYC的深层逻辑:不止是“查身份证”那么简单

从官方公开信息看,Anthropic推行KYC的基准逻辑是:模型能力越强,滥用风险越高,需要用身份验证来"兜底"。虽然一切依旧遵循“安全优先”的原则推进,但实则是商业化进程中面对巨大合规与地缘压力下,一场精心策划的“阳谋”。迫在眉睫的IPO目标或是此次事件的核心驱动力。

首先,KYC是向投资者兜售“安全”叙事、夯实高估值的关键举措。通过主动建立金融级的身份验证体系,公司不仅向监管机构展示了其“负责任”的姿态,有效规避了未来潜在的监管风险,更巩固其在B端大客户心中“最安全、最合规”的AI服务商形象,为后续达成募资目标提供了可信的“安全溢价”支撑。

其次,KYC也是筛选优质客户,优化收入结构,保障商业模型健康的高效手段。在IPO前夕,Anthropic必须优化其财务报表,提升收入质量。强制KYC精准打击了通过个人订阅进行API逆向代理、账号共享等灰产行为,迫使这些“伪C端”用户转向高利润的官方API渠道,从而堵住了收入漏洞。同时也能将极其昂贵的算力资源集中于服务高净值的B端大客户。

最后,KYC还是应对地缘博弈、规避政治风险的主动防御措施。通过明确排除特定地区(如中国大陆地区)的身份证件,Anthropic主动放弃了高合规成本、低战略价值的市场,避免了在上市关键期陷入监管泥潭。同时,这也使其能够配合美国整体的技术限制政策,确保核心技术不流向“敏感地区”,最大程度地降低了IPO过程中可能面临的政治审查风险。

总而言之,强制KYC远不止是“查身份证”那么简单,它更是Anthropic在IPO前夜,为向资本市场展示其合规性、优化其商业模型、规避其地缘风险而打出的一张关键战略牌。

来源:AnthropicASL 安全等级体系

Anthropic的“安全优先”标签,曾是其对抗OpenAI商业化的核心武器。2023年,其《负责任扩展政策》(RSP)明确承诺:若模型能力超越安全阈值且无法缓解风险,将无条件暂停训练。这种“单边承诺”一度被视为行业道德标杆。

而到今年年初,Anthropic官网发布《负责任扩展政策》第三版(RSP 3.0:Responsible Scaling Policy: Version 3.0),那条“模型触及危险阈值就暂停训练”的硬性红线,已经悄然从文件中消失,取而代之的是“透明披露”的柔性框架。

来源:Anthropic官网2月发布的RSP3.0页面截图,明确提及以“风险报告”改进架构

结合如今推行KYC的主动姿态,这家曾经固执坚守AI安全原则的代表企业,其态度和立场的已然转变。

影响与展望:行业格局迎来重构

2025年1月,Anthropic年化收入仅为10亿美元;仅仅15个月之后,便暴涨30倍至300亿。其快速发展历程验证了安全AI路线的商业化价值,更展现了用户信任度对于AI平台的重要性。

近年AI泄密事件简表

2025年9月,xAI前员工窃取Grok相关核心代码库震惊硅谷;同年10月《Chattee ChatAI》与《GiMe Chat》两款“AI女友”应用爆雷让40万用户社死;月初国家网络安全中心才刚刚通报了多起AI供应链投毒事件。泄密事件仍在频频发生的当下,Anthropic的发展路径恰好说明了信息安全仍是AI时代企业的破局思路,其重要性伴随此类事件的屡见不鲜还将持续水涨船高。

此次事件的主角,作为奉行“安全优先”原则的代表企业,Anthropic所展现出来的态度转变也令我们不得不正视行业发展路径或将必然迈入“合规与治理”的路径趋势。这预示着,未来的AI服务将全面纳入类似金融与通信行业的强监管体系。

然而伴随KYC有效切断了滥用和灰产渠道,筛选出高价值商业闭环的同时。独立开发者、小团队以及受限地区的用户被边缘化乃至切割,AI编程、设计等领域的创新多样性流失势必无法避免。

KYC成为大模型标配的趋势其实早有预期。早在2025年4月,OpenAI便已率先启用KYC,供应商正是此次事件中站在风口浪尖的另一位主角——Persona。如今Anthropic的全面跟进,或许也是变相打消了众人心目中最后的一丝“期待”。可以预见的是,Google等巨头将快速对齐这一标准。

图片来源:OpneAI官网API身份验证政策页面截图与此同时,Anthropic对中国用户以及企业的限制也早有预期。去年9月5日,其便已公开宣布将停止向多数股权由中国资本持有的集团出售Claude服务,范围涵盖中国大陆及通过海外注册或云服务间接使用的企业。此外,OpenAI则更早在24年7月便终止了对中国内地及香港地区的API服务访问。对于国产模型而言,这一趋势或许正是国产替代加速发展的宝贵窗口期。继去年Anthropic宣布对中国“停服”后,国内AI平台智谱便顺势推出「Claude API用户特别搬家计划」,承接了这波流量。

图片来源:智谱官方微信公众号推文截图

整体趋势上来看,国产模型短期内依赖蒸馏的知识迁移被切断,长期则将迫使国产模型在芯片适配、算法框架上加速迭代。凭借原生合规、无身份限制、支付便捷等优势,国产模型将加速承接从海外平台溢出的开发者和企业需求,推动技术选型向本土化倾斜。全球AI或将分裂形成由不同路线、模型和芯片所驱动的两个平行AI世界。

参考资料:

1、失控的AI身份核验:OpenAI、Persona 与美政府的监控边界

2、Claude实名认证引众怒!强制验证是为了更精准封号,Opus自己都看不下去

3、以“人类”为名,Anthropic如何打造宪法式人工智能?

4、反超OpenAl Anthropic 凭什么?

5、AI安全的红线在后退?Anthropic与OpenAI的安全承诺变味了

整理及撰文:Leslie Luo

END

推荐阅读01AI搜索指数半年新高!注意力加速向头部聚集,用户从"尝鲜"转入"日用",2月榜单全解析

02从智能搜索工具到AI代理电商模式先驱,四年估值200亿美元,被C罗投资的Perplexity面临怎样的困境?

【来源:公众号】
关于Anthropic,Claude,KYC,身份验证,IPO,安全优先,Persona,OpenAI,Claude Code,AI安全的新闻
17173 首页全新改版规划中!现向各位玩家征集真实使用意见,你的想法将直接影响新版页面设计~动动手指填写问卷,快来共创你心仪的页面布局吧! 参与问卷