五角大楼允许例外使用Anthropic AI工具:国家安全需要可继续使用
五角大楼内部备忘录显示,如果被认为对国家安全至关重要,Anthropic的AI工具可以继续使用,超出之前宣布的6个月淘汰期。
2026年3月,五角大楼内部备忘录显示,如果被认为对国家安全至关重要,Anthropic的AI工具可以继续使用,超出之前宣布的6个月淘汰期。
政策转变
五角大楼此前将Anthropic列为"供应链风险",要求联邦机构停止使用其技术。但新的备忘录显示:
例外情况:如果对国家安全的任务至关重要
继续使用:可以超出6个月淘汰期
高级领导批准:需要高级领导层的批准
例外情况:如果对国家安全的任务至关重要
继续使用:可以超出6个月淘汰期
高级领导批准:需要高级领导层的批准
微软支持
微软已介入Anthropic与特朗普政府升级的法律斗争,提交法庭简报支持这家AI公司。微软警告国防部,禁用Anthropic可能对国防承包商产生严重影响。
行业影响
这一事件反映了:
AI在国防中的重要性:AI技术已成为国防系统的关键组成部分
政策与技术冲突:政府政策与技术现实之间存在矛盾
供应链风险重新评估:国防部正在重新评估AI供应链风险
AI在国防中的重要性:AI技术已成为国防系统的关键组成部分
政策与技术冲突:政府政策与技术现实之间存在矛盾
供应链风险重新评估:国防部正在重新评估AI供应链风险
参考来源:India Today、Inc