\u200E
最新动态 一手掌握

把国防部长气疯,把特朗普惹毛,Anthropic CEO宁死不踩的AI底线到底长啥样?|万字长文

时间: 2026-03-02 17:30作者: 雠风流年

出品 | 网易智能

作者 | 小小

编辑 | 王凤枝

一家顶尖的AI明星企业,被特朗普和白宫接连拉黑,它还能扛得住吗?

2月份最后一天的17点14分,美国国防部长皮特·赫格塞斯(Pete Hegseth)在社交媒体上发了一条推文,宣布将人工智能公司Anthropic列为“国家安全供应链风险”。


就在三个小时前,特朗普总统已经在Truth Social上猛烈开火,称Anthropic是由“左翼疯子”运营的公司,并命令所有联邦机构“立即停止”使用其技术。白宫方面的措辞则更为致命,直接指责这家公司“极其自私”,正在将美军士兵的生命与国家安全置于危险之中。

被全网点名封杀的Anthropic,旗下大模型Claude在业界口碑极佳。更具戏剧性的是,就在短短几个月前,它还是五角大楼最亲密的AI战友,不仅是首个将模型部署到军方机密云上的技术先锋,更是第一家为国家安全定制模型的企业,其技术早已遍布美国的情报界与军队。

然而,华盛顿的荒诞永远超乎想象,一场极具讽刺意味的惊天反转随之而来。

就在这道严厉的封杀令下达仅仅几个小时后,美国对伊朗发动了一场重大空袭。知情人士向媒体证实,美军在此次绝密行动中用于情报评估与目标识别的核心工具,正是刚刚被他们拉黑并斥为“国家安全风险”的Claude。

从昔日的“最积极合作伙伴”到一夜之间“被拉黑”,再到战场上极具讽刺意味的继续使用,这中间到底发生了怎样惊心动魄的权力博弈?

事件发酵后,Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)走进了CBS新闻的演播室接受独家专访。在这场近30分钟的深度对话中,他详细还原了与国防部谈判彻底破裂的极限拉扯全过程,也首次向公众解释了为什么宁愿被美国政府全面封杀,也必须死死守住那两条不可逾越的“红线”。

一、三天最后通牒:到底是谈不拢,还是不想谈?

一切要从一份2亿美元的合同说起。

去年,Anthropic、OpenAI、谷歌和xAI都参与了五角大楼的一个试点项目,探索AI怎么用于国防。Anthropic是唯一一家把技术用到了机密系统上的公司,国防官员用得也挺顺手。

今年1月9日,赫格塞斯发了一份备忘录,要求在整个军队里大规模推广AI,还让AI公司无限制地提供技术。为了显得这事很重要,他甚至在五角大楼各处贴了自己AI生成的海报,上面写着“我要你们用AI”。

这意味着,所有跟五角大楼合作的AI公司,合同都得重谈。Anthropic因为技术用得最广,自然成了谈判焦点。

负责谈的人是埃米尔·迈克尔(Emil Michael),国防部首席技术官,以前是优步的高管,奥巴马时代在五角大楼干过特别助理。他跟Anthropic那边来回拉锯了好几周。

僵局卡在两个地方。

Anthropic提出了两个限制条件:一是不能把他们的AI用于大规模国内监控,二是不能用在他们所谓的“完全自主武器”上,也就是那种完全不需要人类参与、可以自主开火的武器。

五角大楼的立场也很强硬:没有哪个私营公司可以决定政府怎么合法使用它的工具。

到了2月24日,赫格塞斯把阿莫代伊叫到五角大楼面谈。两个人待了不到一小时,气氛谈不上热络。临走时,赫格塞斯下了最后通牒:周五下午5点01分之前,如果还不让步,就把Anthropic列为供应链风险。他还提了一句,实在不行还可以动用《国防生产法》强制合作,这个后来没再提。

阿莫代伊事后回忆,整个谈判节奏都是对方在推,而且给的时间窗口非常短,只有三天。

“他们发过来的措辞,表面上看起来好像接受了我们的条件,但里面全是‘如果五角大楼认为合适’、‘做任何符合法律的事情’这种话。”阿莫代伊说,“实际上没有任何实质性的让步。”

他还提到,五角大楼发言人肖恩·帕内尔(Sean Parnell)前一天在推特上重申过立场:“我们只允许所有合法的用途。”这和对方发来的条款完全是一回事。

“他们从来没有在任何实质意义上同意过我们的例外条款。”阿莫代伊说。

二、两天截胡:OpenAI是怎么趁虚而入的?

就在Anthropic和五角大楼僵持的时候,另一个人也在打电话。

2月25日,也就是赫格塞斯下最后通牒的第二天,OpenAI的首席执行官山姆·奥特曼(Sam Altman)跟迈克尔通上了话,聊的是他们公司能不能接这个单。

只用了一天,双方就搭出了一个框架。OpenAI同意五角大楼的要求,包括AI可以用于所有合法目的,但同时也争取到了一个权利:可以在系统上加技术护栏,遵守自己的安全原则。

知情人士透露,迈克尔其实一直在私下接触OpenAI这条线。他跟奥特曼认识多年,两人都在硅谷,关系比跟阿莫代伊近得多。阿莫代伊和奥特曼虽然也认识,但关系要复杂得多,他俩曾经都在OpenAI共事,现在又是竞争对手。

到了2月26日,阿莫代伊发了一份声明,态度反而更硬了。他说Anthropic“不能凭良心同意”五角大楼的要求,还补充了一句:“在少数情况下,我们相信AI可能破坏而非捍卫民主价值观。有些用途也完全超出了当今技术能够安全可靠地做到的范畴。”

当天晚上,迈克尔在社交媒体上开火,直接称阿莫代伊是“骗子”,还说他“只想试图个人控制美国军队,并且甘愿将我们国家的安全置于危险之中”。

另一位知情人士向媒体透露,53岁的迈克尔之所以这么恼火,跟阿莫代伊在谈判中的态度有关。“他想要一个能理解紧迫性的合作伙伴,而不是一个做学术报告的人。”

三、最后几个小时:就差几个词,到底卡在哪儿?

到了2月28日,也就是最终截止日期当天,双方其实已经快谈拢了。

多位知情人士说,剩下的分歧已经很小,就差几个措辞,即关于“合法监视美国公民”该怎么表述。

当天下午3点47分,特朗普发了一条帖子,公开贬低Anthropic,还要求所有政府机构在六个月内停止与其合作。


但谈判没有停。

当时在电话里的迈克尔,向Anthropic方面提出了一个具体要求:政府希望允许收集和分析美国公民的非机密商业批量数据,比如地理位置和网页浏览记录,然后用AI做分析。

Anthropic方面的回应是:愿意让NSA用他们的技术处理《外国情报监视法》框架下的机密材料,但前提是政府必须做出有法律约束力的承诺,即不能用他们的技术处理非机密商业数据。

就在这个节点上,迈克尔提出要跟阿莫代伊直接通话。他被告知,阿莫代伊正在跟执行团队开会,需要一点时间。

知情人士说,迈克尔对这个答复很不满意。

下午5点01分,截止时间已过。

下午5点14分,赫格塞斯发推,宣布将Anthropic列为供应链风险,切断其与政府的合作。他配了一句话:“美国的战斗人员绝不会被大型科技公司的意识形态奇想所挟持。”

晚上10点,Anthropic的律师开始准备起诉材料。同一时间,奥特曼正在跟迈克尔通电话,敲定OpenAI与国防部协议的最终细节。电话打完,奥特曼在社交媒体上发了消息,赫格塞斯随后用自己的X账号转发了这条公告。

第二天,奥特曼在X上回应质疑,解释这笔交易。有人问他,签了这种协议,怎么还能守住安全原则?他说:“我们不希望对具体的且合法的军事行动发表意见。但我们确实非常希望能够利用我们的专业知识来设计一个安全的系统。”

四、两条红线:阿莫代伊到底在坚持什么?

在CBS的专访中,阿莫代伊花了很长时间解释那两条“红线”。

第一条是大规模国内监控。他说,以前做不到的事,有了AI之后可能就做得到了。比如政府买下私营公司收集的数据,包括位置信息、个人偏好、政治倾向,然后用AI做大规模分析,给每个人建档案。

“这件事现在甚至不违法,只是在AI时代之前这么做没有意义。”阿莫代伊说,“问题就在这里,大规模国内监控已经跑在了法律前面。技术进步太快,法律跟不上。”

第二条是完全自主武器。他说自己不是绝对反对这一类武器,因为将来对手可能也会有,到那时候为了自卫可能不得不用。但他强调两个前提:第一,现在的AI系统远不够可靠。“跟AI打过交道的人都明白,这东西有它本质上的不可预测性,这个问题纯技术层面到现在也没有解决。”

第二,监管问题没有答案。他举了个例子:一支由几千万架无人机组成的军队,全部由一个人或几个人指挥,没有人类士兵在现场决定打谁不打谁,“很容易看出这里面问责有问题。权力集中到那个程度是行不通的。”

“我们不想卖我们认为不可靠的东西,不想卖可能让我们自己人送命或者让无辜的人送命的东西。”他说。

采访中主持人追问:你们一家私营公司,凭什么觉得比五角大楼更有发言权?

阿莫代伊的回应分两层。

第一层是“选择权”。“我们是私营公司,可以选择卖或不卖任何东西。市场上还有其他供应商。如果他们不喜欢我们,换一家就行,这才是正常的方式。”

但他强调,对方这次的做法不是换一家,而是惩罚。“他们不仅把我们挡在国防部外面,还要惩罚性地撤销我们在国防部之外的其他政府合同,还搞出这个供应链风险指定。意思就是,任何有军方合同的公司,都不能在涉及军方项目的地方用Anthropic。”

第二层是“专业性”。他说模型有自己的特性,哪些事做得可靠、哪些事做不可靠,开发者是最清楚的。“我们对技术如何再次跑到法律前面这件事,也看得比较清楚。”

但他也承认,长期来看,这种问题不应该由一家公司和五角大楼天天吵架来解决。“我觉得国会需要介入。我们也在想,国会可以设置哪些护栏,既能让我们打败对手,又能让我们以符合国家价值观的方式打败对手。”

五、“我们被当成了对手”:美国公司第一次背上这个标签

在Anthropic准备起诉的文件里,核心挑战对象是这个“供应链风险”标签。

阿莫代伊在采访中说得很直接:“据我们所知,供应链风险指定以前从来没有用在过美国公司身上。以前的对象都是卡巴斯基实验室那种俄罗斯网络安全公司,都是与政府有关联的对手。”

“与他们归为一类,考虑到我们为美国国家安全做了这么多,这种惩罚性措施非常不合适。”

他说自己理解五角大楼想要什么,即快速响应、没有限制、随时能用。但他认为,如果因此就放弃原则,那就成了“逐底竞赛”。

“我们不能搞彻底的逐底竞赛。我们必须有原则。而且原则只有这么几个。”他举了个类比:对手如果犯战争罪,我们是不是也得犯?

“我没有说这等同于战争罪。我是说,我们价值观的核心是,我们必须找到一种既能赢又能维护这些价值观的方式。”

至于这项技术到底有多重要,他说自己和上将、将军、作战指挥官都聊过。“他们说,这彻底改变了我们的能力。”

“那为什么我们要纠结那百分之一违背我们价值观的用例,而放着百分之九十九能推进我们民主价值观、保卫这个国家的用例不去做?”

六、谁对谁错?旁观者的视角

事情发酵后,“AI教父”、蒙特利尔大学教授约书亚·本吉奥(Yoshua Bengio)站出来力挺阿莫代伊。他说,目前的人工智能缺乏高风险领域所需的可靠性,公司有责任履行信托义务,确保产品不被用于伤害人类。

一位自称曾在国民警卫队和空军服役的76岁网友留言说:“我支持Anthropic。他们的产品不能用于战争或监视我们的人民。我见识过很多,他们的CEO说得对。”


但也有不同的声音。

一位叫唐纳德·亚历山大(Donald S. Alexander)的X用户分析说,在华盛顿,“安全”正在被重新定义为“慢”。五角大楼可能担心,如果AI太安全、太谨慎,在战略上会不会显得太脆弱?

“我们现在看到的,是科幻理想主义与华盛顿现实主义之间的碰撞。”他写道,“如果美国政府疏远了本国顶尖实验室,谁会是赢家?阿莫代伊认为技术发展远超政策制定速度,而这种摩擦,可能正是把领先地位拱手让给全球竞争对手的原因。”

另一位观众看完CBS的采访后留言,说自己仍然支持Anthropic,但也终于理解为什么他们会被拉黑了。

他分析称,Anthropic的核心问题是节奏错位。阿莫代伊的思维方式像学者做报告,严谨但缓慢,而国防部需要的是能跟上危机节奏的合作伙伴。在伊朗局势紧张的背景下,这种沟通差距几乎无法弥合。

七、这件事结束了吗?

采访最后,主持人问了一个直接的问题:你觉得Anthropic作为企业,能挺过这次风波吗?

阿莫代伊的回应是:影响其实没有外界想象的那么大。

他纠正了赫格塞斯在推文中的一个说法。对方说“任何有军方合同的公司都不能与Anthropic做生意”。

“法律不是这么说的。法律规定只是‘作为军方合同的一部分,任何公司不能在那些合同里使用Anthropic’。这影响小得多。”

“部长那条推特的意图就是制造不确定性,让人觉得影响会大得多,制造恐惧、不确定和疑虑。但我们不会让它得逞。我们会没事的。”

至于未来还有没有可能跟政府达成协议,他的回答留了余地:“如果我们和国防部能达成共识,用同样的方式看问题,那也许能达成协议。为了美国的国家安全,我们仍然希望这件事能成。但协议需要双方。”

被问到如果今晚有机会跟总统当面说话,会说什么。他说会重复一句话:我们是爱国的美国人。

“我们在军方部署模型这么积极,是因为我们相信这个国家。我们划的红线,是因为我们觉得跨过这些红线违背了美国价值观,我们想捍卫美国价值观。”

“当我们受到威胁时,我们行使了宪法第一修正案赋予的权利,公开反对政府。质疑政府、反对政府,这本来就是美国精神的核心。我们是爱国者。我们在这里做的一切,都是在捍卫这个国家的价值观。”

第二天,《华尔街日报》发了一条消息:就在特朗普下令封杀Anthropic几小时后,美国对伊朗发动了一次重大空袭。知情人士证实,这次行动使用了Anthropic的Claude工具,包括情报评估、目标识别和模拟作战场景。

对于这种强烈的反差,中央司令部没有回应置评请求。

以下为阿莫代伊接受专访全文:

问:感谢你今天抽出时间。第一个问题,为什么Anthropic不愿意向美国政府无限制地开放你们的AI技术?

阿莫代伊:我先稍微交代一下背景。实际上,Anthropic在所有AI公司中,与美国政府及军方的合作是最积极的。我们是第一家将模型部署到机密云端、第一家为国家安全目的定制模型的公司。目前,我们的技术已广泛应用于情报界和军方,涵盖网络安全、战斗支援等领域。我们这么做的初衷很简单:我坚信我们必须保卫国家。

但我始终认为,在我们防御威权对手的同时,必须以捍卫和维护民主价值观的方式行事。因此,我们向战争部(Department of War)明确表示,我们可以接受98%到99%的应用场景,唯独对其中两项深感忧虑。

第一是大规模国内监视。我们担心AI可能会实现一些过去无法想象的功能。例如,政府购买私营公司收集的数据,再利用AI进行大规模分析。在法律层面,这目前并不违法,只是在AI时代开启之前,这种做法毫无意义。因此,大规模国内监视的发展已超前于现行法律,技术迭代的速度已经让法律难以企及。

第二是全自主武器。我指的不是目前在乌克兰用的半自主武器,而是完全无需人类干预、可自主开火的武器。尽管我承认对手最终可能拥有此类武器,或许在未来的某一天,为了捍卫民主,我们也必须研制它们,但我们目前对此持有保留意见。

我们的担忧主要基于两点:

第一,目前的AI系统远不够可靠,无法支撑全自主武器的运作。任何接触过AI模型的人都明白,模型具有本质上的不可预测性,这一纯技术难题至今尚未攻克。

第二是监管问题。想象一支由千万级无人机或机器人组成的军队,在没有人类士兵决策攻击目标的情况下自主运行,这显然存在极大隐患。我们需要就如何监管展开讨论,但目前相关对话尚未开启。

因此,我们的立场非常坚定:这两个应用场景绝对不应被允许。

问:战争部告诉我们,他们原则上同意这两个限制,并希望达成协议。为什么最后没有谈拢?

阿莫代伊:这件事经历了几个阶段,节奏非常紧凑。关键在于,他们只给了我们短短三天的决策窗口。他们下了最后通牒:要么在三天内接受条件,要么被列为供应链风险,或面临《国防生产法》的强制干预。

在此期间,双方进行过几次交涉。有一次,他们发来的措辞表面上似乎接受了我们的条款,但里面充斥着“若战争部认为合适”或“进行任何符合法律的行为”等表述。这意味着在实质层面,他们并未做出任何有意义的让步。随后的几步交涉同样如此。我们从一开始就希望能达成协议,这一诚意从未改变。

如果想了解五角大楼的真实态度,可以看看其发言人肖恩·帕内尔(Sean Parnell)前一天的推文。他重申立场称,“我们只允许所有合法的用途。”这与他们发给我们的条款如出一辙。可见,他们在实质意义上并未接受我们的例外主张。

问:特朗普总统今天回应此事时发帖称,“Anthropic的自私自利正将美国人的生命置于危险之中,让我们的军队深陷危机,令国家安全岌岌可危。”你对此怎么看?有什么回应?

阿莫代伊:我们在昨天和今天发布的声明中已明确表示:即便战争部或特朗普政府对我们采取这种前所未有的措施,即将通常针对外国对手的“供应链风险”标签贴在我们身上,即使面临如此极端的行动,我们仍将竭尽所能支持战争部。在完成我方退出及后续接手的竞争对手上线所需的过渡期内,我们将持续提供技术支持,直到他们找到愿意接受那些红线要求的替代者。

问:你们已准备好退出?

阿莫代伊:是的,我们承诺保障服务的延续性。实际上,我们非常担心服务中断,而这恰恰是被列为供应链风险后的直接后果。一旦被定性,我们就必须从所有政府系统中撤出。我与身着制服的现役军官交流过,他们表示这些技术是必不可少的,失去支持将导致相关工作倒退半年、一年甚至更久。

这就是我们如此努力寻求协议的原因。但三天的最后通牒和供应链风险的威胁,整个时间线都是由战争部而非我们主导的。我们一直在努力提供持续的服务并达成协议。

问:那么,这对美国人的安全意味着什么?

阿莫代伊:短期来看,这取决于战争部。我们仍未放弃与他们沟通。

问:你们还在谈?

阿莫代伊:仍在尝试沟通。

问:他们在回应你们吗?

阿莫代伊:我们收到了各种信息,但尚未看到任何能解决我方核心关切的内容。不过,从大方向上讲,只要不触碰红线,我们仍有兴趣与他们合作。

问:但听起来双方分歧依然巨大。赫格塞斯部长已定性你们为供应链风险,话也说得非常重。你觉得目前还有可能达成一致吗?

阿莫代伊:协议达成需要双方共同努力。就我方而言,我们愿意为国家安全效力,愿意按照我们提出的红线条款,向包括战争部、情报界及文职政府部门在内的所有分支机构提供模型。

我们始终愿意合作,且并未对此感到被冒犯。我们坚持这一提供技术的方式,是为了捍卫美国的国家安全。我们这么做不是为了讨好五角大楼官员或某一届政府,而是因为它对美国国家安全有益。这一初衷不会改变。

问:为什么你觉得,Anthropic作为一家私营公司,在AI军事化应用上应该比五角大楼拥有更大的发言权?

阿莫代伊:首先,我认为很重要的一点是:据我们所知,前线实际应用中从未有人触及过这些例外限制。这1%的争议场景,目前并无证据显示已被投入使用。尽管我们无法得知他们的远期计划,但现有的部署都非常顺利,从未遇到过上述问题。

至于这一两个细微的例外情况,我同意长远来看需要进行民主讨论。长期而言,这确实属于国会的职责范畴。例如,如果政府购买美国人的位置、个人信息或政治派别数据,并利用AI建模分析,这种大规模国内监视即便合法,也说明司法界对第四修正案的解释或国会制定的法律已严重滞后。

我们认为国会应跟上技术发展的步调,但国会显然不是世界上运作最快的机构。眼下,我们才是站在技术最前线的人。我原本期望战争部能以更审慎、更主动的态度思考这些问题。

我原本期望双方能在没有顾虑的前提下展开对话。但既然缺乏这一前提,我们就必须审视技术本身:审视其可靠性上限,审视其超前于法律的现状,以及其规避法律初衷的方式。这些领域虽然狭窄,但事关美国人的基本权利:不被政府监视的权利,以及军官自主做出战争决策、而非全权交给机器的权利。这些都是基本原则。

问:既然谈到基本原则,为什么美国人要信任你,一个私营公司的CEO,来做这些决定,而不是信任联邦政府?

阿莫代伊:对此我有两个回答。第一,我们是一家私营公司。

问:是的。

阿莫代伊:我们有权决定售卖或不售卖哪些产品。市场上还有其他供应商。如果战争部或政府不喜欢我们提供的服务或研发方式,完全可以更换承包商。这本应是常规的商业处理方式。

我想说,如果战争部表示“我们不想与Anthropic合作,因为双方原则不合,我们要采用其他模型”,虽然我不认同,但我会尊重这种选择。但他们现在的做法是,不仅要把我们排除在战争部之外,还要惩罚性地撤销我们与其他政府部门的合同。

他们甚至祭出了“供应链风险”定性,这意味着任何拥有军方合同的其他私营公司,都不能在涉及这些合同的业务中使用Anthropic。

这种做法直接干预了私营企业的经营行为。除了“报复”和“惩罚”,我很难找到其他词来形容这种行为。据我们所知,供应链风险定性从未被应用于美国本土公司。它此前只针对俄罗斯的卡巴斯基实验室(被怀疑与俄罗斯政府有关联)。考虑到我们为美国国家安全所做的贡献,被与这些实体归为一类,令我们感到极不公正。

问:你说你们为国家安全贡献巨大,且坚持这两个限制。你认为Anthropic真的比五角大楼更懂行吗?

阿莫代伊:并非如此。自由市场和自由企业的特征之一,就是不同的参与者可以基于不同的原则提供差异化产品。这不仅仅是使用条款的问题,也不仅仅是法律允许我们的模型做什么。

我们的模型有其独特的“个性”,能可靠地完成某些任务,而在另一些任务上表现并不可靠。我认为,对于自家模型能力的边界,我们拥有更精准的判断力。同时,我们也更清晰地看到了技术再次跑在法律前面的现状。

但我同意你的看法,目前的僵局长期来看是不可持续的。由一家私营公司与五角大楼为此争执不休并非长久之计,国会应当介入。我们也在思考国会可以采取哪些行动,在不削弱美军战斗力的前提下,设置符合国家价值观的护栏。但如你所知,国会动作迟缓。

所以,在此之前,我们必须划清底线。

问:所以你打算在国会行动前坚持立场。但许多其他公司也在与政府做生意,波音为美军造飞机,却不会干涉美军如何使用飞机。你们有什么不同?

阿莫代伊:不同之处有两点。第一还是技术的新颖性。当一项技术(如飞机)已非常成熟时,将军们对其运作方式已有深刻理解。

问:但航空业也在不断创新。

阿莫代伊:诚然,但完全无法与AI的迭代速度同日而语。我常说AI正处于指数级增长轨道。模型背后的算力投入每四个月就会翻一番,这种创新节奏是史无前例的。

问:如果这种速度持续下去,政府可能永远无法赶上。你一直声称要支持国家安全,如果技术跑得太快导致国会无法追赶,你为什么要拒绝合作?

阿莫代伊:我认为只需要在关键节点同步一次。技术虽快,但衍生出的核心问题其实不多,只是极为重要。我们关注的只有两个:大规模国内监视与全自主武器。我们需要与国会沟通,帮助他们理解风险。这是最符合美国精神的做法,没有人希望被自己的政府监视。

问:与此同时,对手的技术正在飞速追赶,甚至可能已经超越。如果军队是捍卫美国人民和民主共和国的关键,你们为什么还要坚持拒绝合作?

阿莫代伊:这个论点过于抽象了。让我们看看这两个具体的场景:大规模国内监视对美国超越对手毫无帮助,即使它在技术上合法,也是对政府权力的滥用。这一点可以排除。至于全自主武器,我确实担心我们需要保持同步。但目前技术尚未成熟,我们并非全盘否定,只是认为可靠性尚达不到要求,且缺乏监管讨论。我们曾提议在沙盒环境中协助战争部研发这些技术的原型,但他们对此毫无兴趣,除非从一开始就能为所欲为。我们需要在打败对手这一生存需求与作战方式的正确性之间取得平衡。这就像是……

问:很多国家作为对手……

阿莫代伊:这就像是问:如果对手犯下战争罪,我们是否也该效仿?我并不是说这等同于战争罪。我想说的是,我们价值观的本质在于,必须找到一种在赢得胜利的同时能坚守原则的路径。我们不能陷入彻底的“逐底竞赛”。我们的技术能极大地提升军队能力。我与上将、将军和作战司令部指挥官交流过,他们表示AI已彻底革新了作战方式。

而这些仅仅基于目前部署的极少数用例。既然如此,为什么非要死磕那1%违背我们价值观的用例,而不去全力推进那99%既符合民主价值观、又能保卫国家的应用呢?我们甚至愿意研究那最后1%的应用,探索是否有符合价值观的实现路径。这是我们的立场,我认为非常理性。

问:我想了解,美国人应该知晓的最坏情况是什么?大家应该担心什么?请举几个例子。

阿莫代伊:我能预见两类潜在风险。第一还是可靠性问题,即AI误判目标,误击平民。它缺乏人类士兵应有的判断力。我们不愿出售这种不成熟的产品,不愿让它导致己方人员或无辜平民的伤亡。

第二是问责问题。人类士兵有一套成熟的问责机制,前提是人类具备基本常识。假设我有一千万架由单人或极少数人指挥的无人机。显而易见,这会导致严重的问责缺失,权力如此高度集中是行不通的。这不代表我们不该拥有这支部队,或许有一天我们需要它来应对对手的威胁。但我们必须讨论问责制,讨论谁按下按钮,谁拥有否决权。我认为这是非常合理的要求。

问:特朗普总统称Anthropic是“左翼觉醒公司”。这个决定是否受到了意识形态的驱动?

阿莫代伊:我无法代表他人的看法。

问:但你可以代表你自己和Anthropic。

阿莫代伊:我们一直恪守中立原则。我们在具备专业知识的AI政策领域发声,不参与一般性的政治议题。只要有共识,我们就愿意合作。例如,我曾前往宾夕法尼亚州与总统及参议员麦考密克会面,讨论为美国AI模型提供充足的能源保障。当时我也向总统表达了,我在很多方面是非常认同他的做法的。此外,我们还参与了AI医疗公益承诺等多项活动。当政府的《AI行动计划》发布时,我们公开表示赞同其中的大部分内容。

所谓“党派偏见”的说法站不住脚,我们一直刻意保持公正。我们无法控制他人的看法,甚至是总统的看法。我们能控制的是保持理性、保持中立,并为我们的信念挺身而出。

问:从1到10打分,你认为未来还能与联邦政府达成协议吗?

阿莫代伊:我无法预知未来。我方的立场很明确:这两条红线从公司成立第一天起就存在,我们不会动摇。如果政府能与我们达成共识,或许还有转机。为了国家安全,我们依然希望能促成合作,但协议达成需要双方的意愿。

问:如果你今晚能当面向总统说一句话,你会说什么?

阿莫代伊:我会说,我们是爱国的美国人。我们所做的一切都是为了这个国家,为了支持美国的国家安全。我们如此积极地与军方合作,是因为我们热爱美国,坚信要击败威权对手。我们划定红线,正是因为我们相信逾越这些底线背道而驰于美国价值观,而我们想要捍卫它。

当我们面临“供应链风险”定性和《国防生产法》的威胁时,这是政府对私营经济前所未有的干预,我们行使了宪法第一修正案赋予我们的权利,公开表达不同意见。质疑政府,本就是美国精神最核心的体现。我们是爱国者,我们所做的一切,都是在捍卫这个国家的根基。

问:你认为Anthropic作为一家公司,能挺过这次风波吗?

阿莫代伊:赫格塞斯部长在推特上发布“供应链风险”标签时,其言论完全失实,且严重超出了其合法权限。他声称“任何拥有军方合同的公司都不得再与Anthropic开展任何业务”。法律并非如此规定的。我们在声明中已指明法律依据:法律仅限制相关公司在涉及军方合同的业务中使用Anthropic。其实际影响要小得多。

问:所以你有信心挺过去?

阿莫代伊:不仅是挺过去,我们会经营得很好。定性标签的实质影响相当有限。部长那条推特的本质,是为了制造不确定性,让人们误以为影响巨大,从而制造恐慌、疑虑和变数。但我们不会让这种策略得逞。

问:批评者认为五角大楼和白宫的做法是滥用权力,你认同吗?

阿莫代伊:我只能重申,这在前所未有。

问:但这算滥用权力吗?

阿莫代伊:这种事从未在美国公司身上发生过。而且他们的一些措辞和立场已经表露得非常直白,这种做法具有明显的报复色彩和惩罚性质。我想不出更好的形容词了。

问:那你们会采取法律行动吗?

阿莫代伊:我们在声明中说了,目前我们收到的仅仅是一条推特。我们尚未收到正式的供应链定性文件。政府尚未采取任何实际行动,目前只有推特上的口头声称。

问:你们没有收到任何正式通知?

阿莫代伊:尚未收到任何形式的官方文件。目前只有总统和赫格塞斯部长的推特。一旦我们收到正式的行政动作,我们会评估其影响,并在法庭上提起诉讼。

问:如果这就是他们与你们沟通的方式,你认为这反映了他们处理重大国家安全问题的能力吗?

阿莫代伊:我不希望将这件事归咎于某届政府或某个人。我们在竭尽所能支持国家安全。这就是为什么我们仍致力于寻求协议;如果无法达成,我们承诺会以平稳的方式“下线”,确保前线战士在冲突中能持续获得支持。

这就是为什么我们必须抵制那些不符合国家价值观的行为。这无关个人或政府,这是关于坚持正确原则的底线。

问:Anthropic CEO阿莫代伊,非常感谢你的分享。

阿莫代伊:非常感谢你的邀请。