当前位置:主页 > 要闻 > 正文

签了!600人联名信没用,谷歌把AI安全开关“授权”给了五角大楼

发布时间:2026-04-28 已有: 位 网友关注

  知情人士透露称,该协议允许五角大楼将谷歌AI用于任何合法的政府目的,这一表述与此前其他AI公司与国防部谈判中引发争议的措辞如出一辙。协议同时要求谷歌根据政府要求协助调整其AI安全设置与过滤器,条款宽松程度被认为超过OpenAI今年2月与五角大楼达成的协议。

  就在协议签署前夕,逾600名谷歌员工联名致信CEO Sundar Pichai,要求其拒绝该协议,认为拒绝承接机密工作是确保谷歌AI不被滥用的唯一途径。此次签约标志着谷歌在军事AI合作立场上的重大转向,也令市场重新审视科技巨头与国防部门深度绑定所带来的商业与声誉风险。

  员工反对未能阻止协议落地

  协议签署前,谷歌内部已出现明显阻力。超过600名员工在本周一联名致信Pichai,要求公司拒绝该协议,并主张只有彻底回避机密工作,才能从根本上防止谷歌AI遭到滥用。

  这一幕令人联想到八年前的历史。2018年,谷歌在数千名员工签署反对信后,最终退出了国防部涉及无人机目标识别的Maven项目。此次谷歌选择逆员工意愿而行,完成签约,显示出公司在国防业务上的战略取向已发生根本性转变。

  谷歌公共部门发言人在

  条款宽松程度超越OpenAI协议

  谷歌此次协议在条款设计上与竞争对手存在明显差异。OpenAI今年2月与五角大楼达成的协议同样允许所有合法目的的使用,但OpenAI在公告博客中明确

  谷歌协议则要求公司根据政府要求协助调整AI安全过滤器。谷歌公共部门发言人对此解释称,相关过滤器原本面向消费者场景设计,谷歌通常会针对企业客户进行定制调整。

  目前,谷歌已与马斯克旗下xAI及OpenAI一道,成为与五角大楼签署机密AI使用协议的科技公司。

  安全条款被指不具法律约束力

  协议中涉及AI使用限制的核心条款措辞引发法律界质疑。据知情人士透露,协议包含如下表述:双方同意,AI系统无意用于、且不应被用于国内大规模监控或自主武器,除非有适当的人类监督与控制。

  然而,协议随即补充:本协议不赋予任何一方控制或否决政府合法运营决策的权利。

  独立智库法律与AI研究所高级研究员、律师Charlie Bullock指出,无意用于、且不应被用于这一措辞意味着相关条款在法律上不具任何约束力。他表示,这种表述仅代表双方认为此类用途不可取,而非将其认定为违约行为。

  纽约大学布伦南司法中心研究AI与国家安全的高级顾问Amos Toh则指出,适当的人类监督与控制这一表述,并不必然意味着在目标识别与武器发射之间必须有人类介入。他表示,五角大楼迄今未排除部署全自主武器系统的可能性。对武力使用实施适当人类判断的要求,仅仅意味着在武器系统的总体部署方式上存在某种形式的人类参与和决策,Toh说。

  Anthropic前车之鉴悬于行业头顶

  此次谷歌协议的签署,发生在行业对AI军事应用边界争议持续发酵的背景之下。今年2月,Anthropic与五角大楼的谈判公开破裂,导火索正是Anthropic拒绝接受任何合法用途条款,并坚持保留针对大规模监控与自主武器两条明确红线。

  谈判破裂后,五角大楼将Anthropic列为供应链风险,Anthropic目前正就此在法庭上提出抗争。彼时,逾900名谷歌员工与逾100名OpenAI员工曾联署公开承诺,要求各自雇主与Anthropic的两条红线保持一致立场。

  如今,谷歌选择签约,意味着这一行业内部的道德共识正在加速瓦解,而安全条款的法律效力存疑,则令外界对AI在高风险军事场景中的实际约束机制更加忧虑。

温馨提示:所有理财类资讯内容仅供参考,不作为投资依据。