一、事件核心(2026-04-28)
谷歌(Alphabet)与美国国防部(五角大楼)正式签署协议,将 Gemini 大模型接入军方机密 / 最高机密隔离网络(Air-gapped),允许用于任何合法政府用途,覆盖任务规划、情报分析、武器目标定位等敏感场景。谷歌成为继OpenAI、xAI后第三家达成此类合作的 AI 巨头;此前 Anthropic 拒绝签署无强约束的机密协议。
二、协议关键条款
- 适用范围:五角大楼可在机密网络调用谷歌 AI,无常规用户级安全限制,谷歌需按军方要求调整安全过滤器。
- 伦理话术(非强制):写明 AI不用于国内大规模监控、无人类监督的自主武器(含目标选择),但无法律约束力,谷歌无权否决军方合法操作请求。
- 合同性质:2025 年非机密合同的修订扩展,提供 API 访问而非定制开发;五角大楼 2025 年与多家 AI 企业签有最高 2 亿美元 / 份的框架协议。
三、内部反对与外界担忧
- 员工抗议:签约前一日,580–950 名谷歌员工联名致信 CEO,要求效仿 Anthropic 拒绝无强约束的军事合作,警示 AI 或被用于 “不人道或极端有害用途”。
- 风险焦点:
- 伦理边界模糊:“合法用途” 定义宽泛,监控与自主武器限制缺乏强制力。
- 技术失控:军方可绕过民用安全机制,AI 决策风险上升。
- 商业与声誉:硅谷 “不参战” 传统被打破,或引发用户与合作伙伴反弹。
四、战略背景与影响
- 美军 AI 军备加速:2026 年 2 月五角大楼披露,正用 AI 开发针对对手基础设施(电网、网络)的侦察与攻击工具,谷歌入局强化其 AI 作战能力。
- 硅谷军工化深化:谷歌、OpenAI、xAI 集体转向,AI 巨头与美国国防体系深度绑定,公共部门(含国防)成新增长极。
- 行业分裂:Anthropic 坚持强伦理红线,与谷歌等形成鲜明对比,加剧 AI 行业在军事应用上的路线分歧。
五、谷歌的 “平衡术”
- 签约同日,谷歌退出五角大楼 1 亿美元 “语音控制自主无人机蜂群” 竞赛,官方称 “资源不足”,实则回避直接致命性武器开发,试图在商业利益、国家安全与伦理压力间找平衡。
感谢您的支持!
微信
支付宝
关闭
👁 阅读量:29 次
