美国制定严格AI合同指南:五角大楼与Anthropic冲突升级
特朗普政府起草严格AI民 用合同规则,要求企业允许"任何合法使用"其模型,此前五角大楼将Anthropic列为"供应链风险",禁止其技术用于美军项目。
华盛顿——特朗普政府周五起草了严格的民用AI合同规则,要求AI企业允许"任何合法使用"其模型,这与五角大楼和AI公司Anthropic之间的对峙密切相关。
据《金融时报》报道,这些新规是对Anthropic与五角大楼冲突的直接回应。上周三,美国国防部将Anthropic列为"供应链风险",禁止政府承包商在美军相关项目中使用这家AI公司的技术。
从合作到对抗:Anthropic与五角大楼的裂痕
Anthropic与五角大楼的关系曾一度密切。这家由前OpenAI研究人员创立的AI公司以其 Claude AI助手闻名,其模型以安全性著称。然而,随着Claude在军事应用中的潜力被逐步发现,双方的合作开始出现裂痕。
据知情人士透露,Anthropic拒绝向五角大楼提供无限制的模型访问权限,特别是拒绝允许其技术用于自主武器系统或目标识别等敏感军事应用。这一立场与Anthropic一直倡导的"AI安全"理念一致,但却触怒了国防部。
3月5日,五角大楼正式将Anthropic列入"供应链风险"名单。这意味着任何承接美国政府项目的企业,如果使用了Anthropic的技术,将无法参与军合同。
新规核心:要求"任何合法使用"
新起草的民用AI合同指南要求AI企业在与美国政府的合作中,必须允许模型用于"任何合法目的"。这一措辞被业界解读为政府试图绕过AI公司的安全限制,确保其技术可用于更广泛的场景。
"这是政府在告诉我们:要么接受我们的条件,要么失去政府合同,"一位AI行业分析师表示,"对于Anthropic这样的公司来说,这是一个艰难的选择。"
行业反应:担忧与反对并存
新规引发了AI行业的广泛担忧。多家AI公司高管私下表示,这种"任何合法使用"的要求可能会削弱AI公司对模型使用的控制,增加技术被滥用的风险。
科技维权组织电子前沿基金会(EFF)发表声明称:"要求AI公司放弃对模型使用的控制,等同于将危险工具交给任何人。政府应该寻求更负责任的AI部署方式,而不是强迫企业放弃安全底线。"
另一方面,一些国防承包商对新规表示欢迎。他们认为,过于严格的AI使用限制已经阻碍了军事技术的进步。
Anthropic的困境与出路
此次事件对Anthropic而言是一个关键时刻。公司一方面要维护其"AI安全优先"的品牌形象,另一方面又要应对来自政府的巨大压力。
有分析认为,Anthropic可能会选择与美国政府达成某种妥协,在特定条件下允许部分军事应用,同时在其他领域保持限制。另一些观点则认为,Anthropic可能会坚持立场,宁可失去政府合同也不妥协。
无论哪种选择,Anthropic的未来走向都将对整个AI行业产生深远影响。如果该公司选择硬刚政府,可能会开创一个先例,激励其他AI公司也采取类似立场。反之,如果Anthropic选择妥协,整个行业可能会面临更大的政府干预压力。
展望:AI监管走向何方?
这次冲突折射出AI行业面临的更深层问题:如何平衡技术创新、安全考虑和国家安全需求?
随着AI技术越来越强大,各国政府都在探索如何监管这一新兴技术。美国此次的新规可以被视为在AI监管领域的又一次尝试,但其效果如何还有待观察。
对于AI公司而言,如何在商业利益、安全责任和政府压力之间找到平衡,将是未来几年的核心挑战。
参考来源:Reuters、Financial Times、The Economic Times、Straits Times、LiveMint