2026年2月25日,Anthropic发布公告说他们不再遵守2023年制定的《负责任扩展政策》,这条政策的核心内容是如果模型发展速度过快,安全措施跟不上,就必须主动暂停发布,当时大家觉得这家公司很可靠,甚至愿意推迟Claude上线,被很多人称为“AI界的良心”。
现在他们又改口了,不是因为技术进步了,也不是评估能力提高了,而是外部环境变了,特朗普在2025年重新上台后,直接反对联邦政府管理人工智能,还推动废除加州、科罗拉多州这些地方已经制定好的规则,Anthropic这家公司一直指望法律能帮他们守住底线,结果发现这堵墙早就塌了,首席科学家卡普兰跟《时代》杂志说过一句话,停止训练对谁都没有好处,这话听着平常,其实把道德两个字拿掉了,剩下的全是生意逻辑。
他们最近融到三百亿美元,估值涨到三千八百亿,创下AI公司的新纪录,计划在2026年实现一百八十亿营收,比去年提高将近四倍,到2027年还要冲到五百五十亿,这些资金主要来自企业API收费,编程工具是核心业务,Claude Code现在面临微软的GPT-5.3-Codex和苹果新推的独立应用竞争,必须加快速度才能抓住机会。

OpenAI、谷歌、亚马逊都在不断推出新模型,节奏越来越快,如果Anthropic还坚持先停下来做安全检查,等它完成这些工作,市场早就被其他公司占满了。新的政策里有一个透明度承诺,比如定期发布安全路线图,每三到六个月出一份风险报告,听起来确实挺认真,但关键条款改了,暂停标准变成了“领先位置”这种模糊说法,到底什么叫领先,由谁说了算,这等于把刹车踏板换成了软橡胶垫,踩下去也不怎么管用。
有人早就怀疑Anthropic推动严格监管,表面上是为了安全,实际上可能是想抬高门槛,让小公司和开源项目承担不起合规成本,现在他们放松管制,看起来是提供公平竞争,其实是因为自己也撑不住了,以前想用规则压住对手,现在规则没了,只能跳进同一个池子比拼实力。
他们并不是突然变坏,也不是放弃原则,只是发现光讲道理没人听,政府没有立法,国际上也缺乏共识,连基本标准都定不下来,你一个人站在那里喊“慢点走”,别人早就跑出去两公里了,这时候继续守着道德高地,等于把客户、投资、团队全扔进火里烤。
卡普兰那句“对谁都没有好处”的话,我仔细想了想,其实背后还有一层意思,那就是对Anthropic自己尤其没好处,他们现在不是不想重视安全,而是得先活下来才能谈安全。
融资金额这么大,营收目标又定得这么高,背后是投资人要盯着报表看,员工等着期权变现,客户催着功能赶紧上线,在这种压力下,“单边暂停”其实就是一场赌博,只有理想主义者才敢这么做,赌赢了别人夸你有远见,赌输了公司可能就散了,2026年2月27日这事刚过去两天,业内还没争论出结果,但有一点已经很清楚:以后谁也不好意思再说“我们为了安全愿意慢一点”了。
因为速度太慢,就会带来死亡。
原创文章,作者:徐梓涵,如若转载,请注明出处:http://m.gaochengzhenxuan.com/keji/7999.html