美国军方确认在伊朗战争中部署AI工具:24小时内精确打击1000个目标

美国军方首次公开承认在针对伊朗的军事行动中使用人工智能技术,包括Claude和Palantir的Maven系统。这次行动展示了AI在现代战争中的深度应用,同时也引发了关于自动化决策和人类判断力的激烈争论。

美国军方确认在伊朗战争中部署AI工具:24小时内精确打击1000个目标

美国军方近日首次公开承认,在针对伊朗的军事行动中部署了先进的人工智能工具。这场被称为"Epic Fury"作战的行动,展现了AI技术在现代战争中的深度应用,同时也引发了关于战争伦理和人类判断力的激烈争论。

24小时内的1000次精确打击

根据《华盛顿邮报》的报道,美国军队在针对伊朗袭击的头24小时内成功打击了约1000个目标,这一惊人效率部分归功于人工智能技术的应用。美国中央司令部司令在与媒体沟通时特别强调,AI工具帮助军队"更快、更聪明"地执行作战任务。

这次行动中,美军使用了Anthropic公司的Claude AI工具,结合Palantir的Maven智能系统,进行实时目标定位和优先级排序。Maven系统利用AI算法从卫星和其他情报数据中识别潜在目标,而Claude则帮助军事规划人员整理信息并做出目标选择和优先级决策。

AI的角色:决策支持而非自主武器

佐治亚理工学院网络安全与隐私、国际事务副教授乔恩·R·林赛(Jon R. Lindsay)分析指出,Claude本质上是一个决策支持系统,而非武器系统。他在接受采访时表示:"现代战斗组织依赖无数数字应用进行情报分析、战役规划、战斗管理、通信、物流、行政和网络安全。"

林赛强调,军事AI主要分为两大类:自动化武器系统和决策支持系统。前者具有选择或攻击目标的自主能力,而后者则为人类人员提供情报和规划信息。他指出:"当前的军事AI应用,包括在当前和最近的中东战争中,主要用于决策支持系统而非武器。"

这种区别至关重要。以色列在加沙战争中使用的Lavender和Gospel系统同样属于决策支持系统——这些AI应用提供分析和规划支持,但最终做出决策的仍然是人。

数十年的技术积累

林赛指出,军队使用AI的能力并非一蹴而就。"自动化系统的有效使用依赖于广泛的基础设施和熟练人员。正是由于数十年的投资和经验,美国才能在今天在战争中使用AI。"

从冷战时期的命令控制系统的雏形,到如今的网络中心战概念,美国军方一直在不断发展和完善AI基础设施。上世纪50年代的半自动地面环境(SAGE)系统、越南战争期间的Igloo White项目,都是现代决策支持系统的先驱。

伦理争议与人类判断

然而,AI在军事中的应用也引发了严重担忧。自动化偏见——即人类过度依赖自动化决策的倾向——成为讨论的焦点。但林赛认为,这些担忧并非新问题。

他指出,越南战争期间的Igloo White系统经常被越南的假目标误导。1988年,美国一艘先进的Aegis巡洋舰误击落了一架伊朗客机。情报失误曾导致美国隐形轰炸机在1999年意外轰炸了中国驻贝尔格莱德大使馆。

林赛特别提到,最近有证据表明,一枚"战斧"巡航导弹误炸了伊朗海军基地附近的一所女子学校,造成约175人死亡,其中大部分是学生。这次误炸可能源于美国情报失误。

"决策支持系统的成功与失败,更多取决于组织因素而非技术。"林赛写道,"AI可以帮助组织提高效率,但也会放大组织偏见。"

人类的角色日益重要

尽管AI在军事中的应用不断扩大,林赛认为这实际上正在使"人类在战争中变得更加重要,而不是更不重要"。

他解释称:"从经济角度讲,AI改善了预测,即基于现有数据生成新数据。但预测只是决策的一部分。人们最终会对重要的决策做出判断——关于预测什么以及如何使用预测。人类有偏好、价值观和对现实世界结果的承诺,但AI系统本质上没有。"

美国国防部高级研究计划局(DARPA)在1980年代的战略计算计划推动了半导体和专家系统的进步。事实上,正是国防资金最初推动了AI的崛起。

五角大楼已确认将继续使用AI工具进行目标定位,同时强调人类决策者仍然在战争决策中发挥关键作用。这一立场与那些呼吁对军事AI应用进行更严格监管的声音形成了微妙的平衡。

参考来源:The ConversationNBC NewsDefenseScoopReuters