

【编者按】在人工智能技术日益渗透国家安全领域的今天,一场关于科技伦理与政府权力的交锋正在上演。美国AI公司Anthropic因拒绝军方无限制使用其聊天机器人Claude,被五角大楼罕见地贴上“供应链风险”标签,随即以宪法第一修正案为武器将联邦政府告上法庭。这场诉讼不仅关乎一家科技公司的存亡,更触及了私营企业在军事化应用中的话语权边界。当国家安全需求与企业道德准则碰撞,当行政权力试图碾压技术自主权,这场较量或将重新定义AI时代的技术治理规则。以下为事件深度解析:
Anthropic正式起诉特朗普政府,要求联邦法院撤销五角大楼将其人工智能公司列为“供应链风险”的决定——此举源于该公司拒绝允许军方无限制使用其技术。
本周一,Anthropic在加州联邦法院和华盛顿特区联邦上诉法院分别提起两项独立诉讼,每项诉讼都针对五角大楼对该公司采取行动的不同层面提出挑战。
上周,在关于其AI聊天机器人Claude如何应用于战争的异常公开争议后,五角大楼正式将这家旧金山科技公司列为供应链风险。
“这些行动前所未有且不合法,”Anthropic在诉讼中称,“宪法不允许政府利用其巨大权力来惩罚一家公司的受保护言论。没有任何联邦法规授权此处采取的行动。Anthropic诉诸司法系统作为最后手段,以维护自身权利并阻止行政部门的非法报复行动。”
美国国防部周一拒绝置评, citing a policy of not commenting on matters in litigation.
Anthropic表示,其试图限制自身技术被用于两种高级用途:对美国人的大规模监控和完全自主武器。国防部长皮特·赫格塞斯及其他官员公开坚持该公司必须接受Claude的“所有合法用途”,并威胁若Anthropic不遵守将予以惩罚。
将该公司列为供应链风险,是利用一项旨在防止外国对手危害国家安全系统的授权,切断了Anthropic的国防相关工作。这是已知联邦政府首次将此标签用于一家美国公司。
总统唐纳德·特朗普也表示将命令联邦机构停止使用Claude,不过他给了五角大楼六个月时间逐步淘汰这一已深度嵌入机密军事系统(包括用于伊朗战争的系统)的产品。
在官员命令员工停止使用Anthropic的服务后,该公司的诉讼还点名了其他联邦机构,包括财政部和国务院。
即使在对抗五角大楼行动的同时,Anthropic仍试图让企业及其他政府机构相信,特朗普政府的惩罚范围有限,仅影响军事承包商在为国防部工作时使用Claude的情况。
明确这一区别对私营的Anthropic至关重要,因为其今年预计140亿美元收入的大部分来自将Claude用于计算机编码及其他任务的企业和政府机构。根据近期一项将该司估值定为3800亿美元的投资公告,超过500家客户每年向Anthropic支付至少100万美元使用Claude。
Anthropic在周一的一份声明中表示:“寻求司法审查并未改变我们长期以来的承诺,即利用AI保护国家安全,但这是保护我们业务、客户和合作伙伴的必要步骤。”