
2026年5月,AI军事化应用迎来历史性突破。五角大楼正式签约7家AI巨头,接入最高机密IL-6/IL-7网络,预算高达540亿美元,用于AI作战系统、情报决策、目标生成、无人集群控制。民用AI正式从"辅助参谋"变为战争决策节点,军备竞赛进入"算法主导"新阶段。
签约方包括OpenAI、Google、NVIDIA、Microsoft、Amazon、SpaceX、Reflection AI。军方AI平台GenAI.mil上线5个月已有130万+国防部人员使用,部署数十万个智能体,部分任务周期从"数月"压缩至"数天"。这一变革标志着AI技术从商业应用延伸至国防安全领域,对全球地缘政治格局产生深远影响。
值得关注的是,Anthropic因拒绝开放模型用于完全自主武器与大规模监控,3月被五角大楼列为"供应链风险",禁止合作并涉诉讼。这一事件引发了业界对AI伦理边界的深刻讨论:技术进步究竟应该服务于什么目标?企业在国家安全与人类福祉之间如何平衡?
与此同时,欧盟《AI法案》于5月3日正式生效,成为全球首部全面性AI监管框架。该法案按风险分级监管:社会评分、实时生物识别、操纵性AI被全面禁止;医疗、教育、司法、关键基础设施等高风险领域强制合规、人类监督;通用大模型需透明度报告、安全评估、版权溯源。
AI治理从"建议"走向"强制",全球AI产业进入规范化发展新阶段。技术在前进,规则在完善,人类正在探索一条既能释放AI潜力又能管控风险的中间道路。