
本文已同步发布到微信公众号「人言兑」
👈 扫描二维码关注,第一时间获取更新!
AI 没有变成“新的 Linux”,反而越来越像“新的曼哈顿计划”。
如果你经常使用 AI,大概率听过 Claude。
Claude 背后的公司,叫 Anthropic。
它是目前全球最核心的 frontier AI 公司之一,也是 OpenAI 最大竞争对手之一。
昨天(5.14),Anthropic 发布了一篇引发巨大讨论的文章:
《2028: Two Scenarios for Global AI Leadership》
很多人第一眼看,会以为这是篇 AI 行业分析。
但认真读完后你会发现:
它其实更像一份写给华盛顿的战略备忘录。
文章核心观点可以浓缩成一句话:
AI 的决定性资源是算力,美国必须通过芯片出口管制、限制模型扩散、加强盟友体系,确保中国在未来几年无法追平。
这已经不是普通科技公司的口吻了。
它更像:
而这也让很多人第一次真正意识到:
AI 行业,正在从互联网逻辑,进入地缘政治逻辑。
Anthropic 认为:
这一点其实并不离谱。
因为未来 AI 真正可怕的地方,从来都不是“会聊天”。
而是:
Anthropic 实际上是在把 AI 描述成:
“新的核武 + 新的工业革命 + 新的互联网基础设施”
而不是一个 AI 助手。
文章里反复强调:
这些措辞已经明显不是“行业观察”。
而是:
站在美国国家安全视角写给政策圈看的内容。
所以很多人读完会有一种感觉:
Anthropic 已经不像一家普通 AI 公司。
反而越来越像:
很多人对 Anthropic 的第一印象是:
“做 Claude 的 AI 公司”。
但实际上,它的气质和 OpenAI、Google、xAI 都不太一样。
OpenAI 更像超级创业公司。
xAI 更像马斯克个人意志的延伸。
Google DeepMind 更像科研帝国。
而 Anthropic 很特别。
它有一种非常强烈的:
它不像互联网公司。
更像:
Anthropic 创始团队很多都来自 OpenAI。
而且当初分裂的重要原因之一,就是对 OpenAI 商业化方向的不满。
他们真正担心的是:
“AI能力增长速度,可能已经超过人类社会治理速度。”
所以 Anthropic 从诞生开始,就带着很强的 AI safety 色彩。
这是最有意思的地方。
Anthropic 一边强调:
另一边:
于是很多人会觉得:
“你一边警告火灾,一边自己在加油。”
这种批评其实并不奇怪。
因为 Anthropic 身上有一种非常强的“内在张力”。
它既想成为:
同时又必须成为:
文章中有一种非常明显的框架:
但问题在于:
很多人并不认为:
“美国AI公司控制 AI” 等于 “AI更民主”。
于是网上出现了一条非常尖锐的评论:
“最搞笑的是,你把问题塑造成民主 vs CCP、美国 vs 中国,但现实其实是 open source vs YOU。”
“如果你真的在乎民主,你就应该开源模型。”
“你根本不在乎民主,你只是利用民族主义叙事为自己谋利。”
这些评论为什么被大量点赞?
因为它击中了 Anthropic 这类 frontier lab 最大的矛盾。
代表:
核心逻辑:
于是最终形成:
本质上是:
“AI 应该由少数可信机构托管。”
这是非常典型的技术官僚思维。
Anthropic 尤其明显。
代表:
核心逻辑:
于是形成:
本质上是:
“AI 应该像 Linux 一样扩散。”
所以很多人开始认为:
AI真正的冲突, 不是美国 vs 中国, 而是开放 vs 集中。
它文章里关于中国的描述,带有非常明显的地缘政治色彩:
它并不是在“中立分析 AI 竞争”。
而更像是在强调:
“美国必须保持技术压制。”
这种叙事,自然会让很多人觉得:
Anthropic 并不只是担心 AI 风险。
它同样在利用:
来强化自身的政治合法性和商业护城河。
而且它确实有现实商业利益
这一点其实非常关键。
因为如果 AI 被定义成:
那么谁最受益?
恰恰是:
因为监管很多时候意味着:
所以很多开源派才会认为:
“AI safety 某种程度上,正在变成既得利益者的竞争工具。”
这种批评,并不是完全没有道理。
因为 Anthropic 内部大概率也确实相信:
问题在于:
“真实风险” 和 “商业利益” 是可以同时存在的。
他们未必是“纯粹虚伪”。
更可能是:
他们真相信风险, 但也真在利用风险构建自己的护城河与权力。
而这恰恰才是今天这些大型科技公司最真实的状态。