从华盛顿传来的这记“急刹车”,让不少还把AI当作纯商业产品的人瞬间清醒:美国人工智能公司Anthropic不仅被美国政府点名“停用”,还被国防部长贴上“供应链风险”的标签——这类措辞过去更常用在外国通讯设备身上,如今却落在一家美国本土前沿模型公司头上。

按报道,美国总统特朗普已下令联邦机构停止使用Anthropic技术;财政部、联邦住房金融局等迅速跟进“全数终止”,国务院内部聊天机器人也改用OpenAI;而涉及国防体系的单位与承包商,则被给予六个月宽限期完成替换与迁移。这不是一般意义上的“换供应商”,更像一次把AI纳入国家安全管制的示范:模型不再只是代码与算力,而是地缘政治与行政权力的延伸。

更值得玩味的是导火索:争端并非出自“技术落后”,而是出自“边界谈判”。报道指出,五角大楼要求Anthropic移除或放宽部分安全护栏,使其AI可用于更敏感的军事用途;Anthropic拒绝让步,担忧技术被用于自主武器锁定与国内监控等场景,随后即面临被定性为“风险”的强硬处置。 当企业以伦理条款自我设限,国家却以“战场需求”要求解锁——这场冲突把“AI治理”的真实权力结构赤裸摊开:谁来决定红线?决定的代价由谁承担?

而软件公司帕兰泰尔(Palantir)的故事,正说明这种处置会在产业链上引爆“连锁反应”。早在2024年,Palantir便与Anthropic、AWS合作,把Claude模型深度整合进Palantir AIP,为美国情报与防务单位在高安全等级环境中调用与部署。Anthropic自己也承认,Claude已与Palantir等伙伴一起进入机密网络的任务工作流,用于快速处理与分析复杂数据。 

在这种“嵌入式”应用里,Claude不是一个聊天窗口,而是被接进资料管线、权限系统、审计流程、知识图谱与指挥链条的“发动机零件”。今天一纸禁令,明天就要把发动机拆下换牌子——六个月宽限期听起来体面,背后却是巨额的系统改造、验证与合规成本。

禁令之下,最大赢家显然是OpenAI。媒体称OpenAI已与国防体系就机密网络部署达成协议,并强调其对军事使用设有“红线”与额外防护;OpenAI甚至公开表示,希望类似条款对所有前沿实验室一视同仁。讽刺的是:Anthropic正是因为坚持护栏而被惩罚;而OpenAI在“接棒”时,却也必须把护栏写进合同,才能换取政治与公众层面的正当性。换言之,护栏没有消失,它只是从企业自律,变成国家采购合同里的“可控条款”。

这将怎样影响AI发展?我看至少三条路线会被加速。

第一,“可替换架构”成为新刚需。从此不再是“选最强模型”,而是“选最容易替换的模型”。政府与大型承包商会要求抽像层、标准化接口、可迁移的提示与代理流程,把模型当成可插拔部件;这会催生更多中间层平台、评测标准与合规工具,也可能反过来削弱单一模型厂商的议价能力。

第二,合规与审计变成核心产品力。谁能提供可追溯的供应链证明、权限隔离、日志审计、机密网络部署与事故响应,谁就更接近“准基础设施”。这会推动更封闭的权重管理、更严格的访问控制,甚至让“主权AI”“本地化部署”从口号变成预算科目。

第三,伦理被政治化,创新被阵营化。当“是否允许某些用途”会直接决定你能不能进入最大买家——国家机器——企业的价值选择将更痛苦:坚持原则可能失去市场,放宽原则可能失去信誉与人才。科研开放与跨国合作也会更碎片化,AI逐渐呈现“阵营生态”:规则、供应链、云与模型一起被分割。

对亚洲企业与政府机构而言,这不是一场离岸八卦。今天美国可以对自家AI公司按下停止键,明天也可能因法律、制裁或外交风向,让某些模型在别的国家变得“不可用”或“不可买”。AI采购与系统设计,必须把地缘风险当成技术指标同等对待:多模型备援、数据与流程可迁移、关键能力可本地落地。因为在新的时代里,决定AI走多远的,不只算力与算法,还有权力与边界。

本文观点,不代表《东方日报》立场。

陈奕强

本地上市科技公司Agmo的首席执行员兼创办人,国家数码经济和工业革命4.0的委员会成员,也是一些新创科技公司的顾问和大学的工业咨询顾问团成员。

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头