自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

OpenAI 坚称与五角大楼合作坚守安全“红线”——用户却不买账

2026-03-03 05:24:06
收藏

OpenAI 本周末表示,其已与五角大楼达成协议,将在机密环境中部署先进的人工智能系统,这标志着该公司与美国军方的合作范围显著扩大。

该公告发布前不到24小时,特朗普政府刚将竞争对手Anthropic公司列入黑名单,并在一场关于监控和自主武器合同条款的争议后,将其定性为“对国家安全的供应链风险”。特朗普总统同时指示联邦机构立即停止使用Anthropic的技术,财政部长斯科特·贝森特周一在X平台上写道,该部门“正在终止使用Anthropic的所有产品,包括其Claude平台”。

这两项人工智能相关声明的相继发布,使OpenAI的协议受到了密切关注。在一篇详细的博客文章中,该公司概述了其所谓的坚定“红线”以及约束其与五角大楼合作关系的多层次保障措施。

根据OpenAI的表述,该协议引发了更广泛的问题:人工智能系统在国家安全环境中将如何被管控?以及该公司声明的限制在实际中将被如何解释和执行?

OpenAI的博客文章开篇即提出三项被视为不可妥协的承诺:其技术不得用于大规模国内监控、不得用于独立引导自主武器系统、也不得用于社会信用评分等高风险的自动化决策。

随后是实际的合同条款——OpenAI特意称之为“相关条款”,而非“完整协议”。“国防部可在所有合法目的下使用该人工智能系统,并需符合适用法律、操作要求以及完善的安全与监督规程,”OpenAI如是说。

这恰恰是Anthropic声称政府在整个谈判过程中一直要求加入的措辞,也正是Anthropic拒绝接受的措辞。OpenAI签署了协议,但坚称其红线仍然完好无损。

然而,在国家安全语境下,“合法”并非一个固定边界——它存在于一系列法律、行政命令、内部指令以及通常是机密的司法解释所构成的拼图中。当合同授予“所有合法目的”时,实际的限制就变成了政府当前的法律框架,而非由供应商设定的独立标准。

关于武器的条款写道:该人工智能系统“在任何法律、法规或部门政策要求人类控制的场景下,不得用于独立引导自主武器”。这项禁令仅在已有其他权威规定要求人类控制时才适用——其效力完全源于现有政策,特别是国防部指令3000.09。该指令要求自主系统允许指挥官对武力的使用行使“适当程度的人类判断”。而“适当”一词的主观性极强。

人类判断不等于人类控制。这一区别并非偶然。国防领域的学者指出,省略“人在回路”的措辞是故意的,正是为了保持行动上的灵活性。

OpenAI最有力的反驳在于其纯云端部署架构——完全自主的致命决策闭环需要在战场设备上进行边缘部署,而这份合同不允许这样做。这是一个实实在在的技术约束。

但基于云端的人工智能仍然可以执行目标识别、活动规律分析和任务规划。无论最终的触发点位于何处,这些都属于杀伤链上的活动。对于一个目标而言,其结果并不会因模型运行在哪个服务器上而有所不同。

监控条款遵循了类似的模式。OpenAI声明的红线是:禁止大规模国内监控。合同措辞则为:该系统“不得用于对美国人员私人信息进行无约束的监控,此类监控需符合相关授权”——随后列举了《第四修正案》、《外国情报监视法》和12333号行政命令。

“无约束”一词暗示,某种受约束的大规模监控可能是被允许的。而12333号行政命令正是国家安全局用来为其在美国境外拦截美国人通讯进行辩护的依据。

这也正是Anthropic在整个谈判中对措辞的担忧所在。Anthropic的观点是,现行法律未能跟上人工智能所可能实现的一切。政府可以在没有授权的情况下,合法购买大量关于美国人的汇总商业数据——并且已经这样做了。

OpenAI的合同条款将其保护措施锚定于现有法律框架,可能并未解决Anthropic真正担忧的问题。

周六晚间,奥特曼举行了一场问答会,回应了关于该协议的数千个问题。当被问及什么情况会导致OpenAI终止与政府的合作时,他答道:“如果我们被要求做违宪或违法的事情,我们会退出。”

这种表述将OpenAI的底线设定为合法性——而非基于公司自身伦理判断来决定支持或反对那些碰巧合法的行为,而这正是Anthropic所秉持的立场。当被问及是否担心未来对何为“合法”产生争议时,他承认了风险:“如果我们必须面对这场斗争,我们会应战,但这显然使我们面临一定的风险。”

关于为何OpenAI能达成协议而Anthropic不能,奥特曼给出了这样的解释:“Anthropic似乎更关注合同中的具体禁令,而不是援引适用法律,而我们对后者感到放心。如果只能选一个,我显然更愿意依赖技术保障措施。我认为Anthropic可能比我们更想要操作层面的控制权。”

这是一种实质性的理念差异。Anthropic认为,由于前沿模型可能以难以预料的方式被改用于情报和军事工作流程,因此限制必须明确且具有书面约束力,即使这可能使交易无法达成。OpenAI的立场则是,技术架构、嵌入式人员以及现有法律共同构成的保障,比单纯的合同文本更为有力。

反弹随即而来。截至周一,“QuitGPT”运动声称已有超过150万人采取了行动——取消订阅、分享抵制帖子或在quitgpt.org网站上注册。该运动将OpenAI的举动描述为将军事合同置于用户安全之上,指责该公司同意让五角大楼将其技术用于“任何合法目的,包括杀手机器人和大规模监控”。

OpenAI或许会反驳这种描述。但市场已然做出了反应。

Anthropic的Claude超越了ChatGPT,成为美国苹果应用商店上下载量最大的免费应用程序。该公司透露,其周末的单日注册量创下了纪录。

流行歌星凯蒂·佩里在X平台上分享了Claude定价页面的截图。数百名用户在Reddit上公开记录了他们取消订阅的过程。赞扬Anthropic的涂鸦出现在其旧金山办公室外,而OpenAI的人行道上则被粉笔攻击覆盖。甚至OpenAI自己的数百名员工此前也曾签署公开信,支持Anthropic拒绝五角大楼要求的决定。

“QuitGPT”运动的叙事在情感上颇具感染力,但并非完全准确。Anthropic本身也与Palantir和亚马逊网络服务建立了合作伙伴关系,该合作允许美国情报机构和国防部门使用Claude模型,并据称已被用于旨在推翻委内瑞拉和伊朗政府的军事行动中。人工智能伦理与国家安全合同的问题,对双方而言都并非毫无瑕疵。

该运动准确捕捉到的一点是,大量用户认为这两家公司在设定其限制的方式上存在显著差异——并通过他们的订阅选择做出了投票。

这种差异是否如其表面所示那般意义重大,则需要仔细研读合同条款。

免责声明:

本网站、超链接、相关应用程序、论坛、博客等媒体账户以及其他平台和用户发布的所有内容均来源于第三方平台及平台用户。百亿财经对于网站及其内容不作任何类型的保证,网站所有区块链相关数据以及其他内容资料仅供用户学习及研究之用,不构成任何投资、法律等其他领域的建议和依据。百亿财经用户以及其他第三方平台在本网站发布的任何内容均由其个人负责,与百亿财经无关。百亿财经不对任何因使用本网站信息而导致的任何损失负责。您需谨慎使用相关数据及内容,并自行承担所带来的一切风险。强烈建议您独自对内容进行研究、审查、分析和验证。

展开阅读全文
更多新闻