发布时间:2026-04-29 已有: 位 网友关注
谷歌已与美国国防部签署协议,承接机密人工智能业务。一位知情人士透露,美国国防部正将谷歌的最新模型用于机密项目。
根据协议,谷歌将向美国五角大楼开放Gemini大模型,允许其用于“任何合法政府用途”,并将其与OpenAI和埃隆·马斯克的xAI并列,这两家公司也签订了提供AI模型用于机密用途的协议。
美国国防部要求OpenAI和Anthropic等公司的工具在机密网络上使用,而不再使用对用户施加的标准限制。机密网络用于处理各种敏感工作,包括任务规划和武器目标锁定。
2018年,谷歌曾因员工强烈抗议,退出美军Maven项目,该项目利用人工智能优化无人机打击行动。最终谷歌并未续约,并承诺不会研发用于武器或监控领域的人工智能技术。
谷歌在成立之初便将“不作恶”的原则纳入其行为准则,并以此标语彰显公司的独立性。创始人拉里·佩奇和谢尔盖·布林在2004年公司首次公开募股前夕的一封信中,将这一口号写入其中。
当地时间4月28日,美国五角大楼已正式提出更名申请,拟将“国防部”更名为“战争部”,预计相关调整成本将超过5000万美元。这一举措也从侧面反映出美国军方战略导向的微妙变化。
今年2月,Anthropic首席执行官达里奥・阿莫迪拒绝向美国政府无限制开放其人工智能模型,并坚持设立监管约束机制,严防相关技术被用于研发致命自主武器及大规模国内监控。
此后,Anthropic公司被美国国防部认定为供应链风险实体,美国总统唐纳德·特朗普随即下令,要求所有政府部门停用该公司的人工智能模型Claude。目前,Anthropic已就此认定结果向美国法院提起诉讼。
在Anthropic遭美国政府限制后不久,OpenAI便与美国政府单独达成合作协议,此举引发内部研究人员的强烈反对。首席执行官山姆・奥尔特曼随后公开致歉,承认自己的做法投机草率、考虑不周。
“不作恶”曾是员工加入谷歌的精神信仰,如今为利益向军工妥协,让技术人员沦为“[*]人工具”的制造者,对相关员工来说这无疑是职业尊严与道德底线双重受创。
谷歌员工更是直指公司的“短视”。联名信警告:“当下一旦决策失误,将会对谷歌的声誉、业务及全球影响力造成无法弥补的损害。”同时,信中也希冀公司管理层,在关键时刻“能为企业自身与全世界做出正确抉择”。
这场风波给全球科技行业敲响警钟。AI的价值不在于征服与[*]戮,而在于在提升效率的同时,让每个生命都能享有更美好的生活。短期商业利益或许诱人,但突破伦理底线的技术,终将反噬企业自身。