11 月,以色列左翼媒体《 972》杂志和《地方呼声》发表了记者尤瓦尔-亚伯拉罕(Yuval Abraham)的一篇令人不安的调查报告,调查以色列国防军使用人工智能系统识别加沙目标的情况--一位前情报官员将其描述为 "大规模暗*工厂"。
然而,关于一场战争部分由人工智能指挥的报道,在有关以色列在加沙的行为的辩论中只激起了一点涟漪。
也许部分原因是,在令人不安的程度上--专家们承认,人工智能的形式已经在世界主要国家的军队中广泛使用,包括在美国,五角大楼至少自奥巴马政府以来一直在为军事目的开发人工智能。据《外交事务》报道,目前至少有 30 个国家的国防系统具有自主模式。我们中的许多人仍将人工智能战争视为科幻小说中的未来景象,但人工智能已经融入全球军事行动,就像它已经融入我们的日常生活一样。
构成威胁的不仅仅是失控的人工智能。失控的系统也会造成伤害。华盛顿邮报称乌克兰战争是 "超级发明实验室",标志着 "使用人工智能的无人机战争革命"。
五角大楼正在制定应对人工智能无人机群的措施,随着五角大楼在红海反击也门胡塞武装的无人机袭击,这一威胁已变得不再遥远。
据美联社报道,一些分析人士认为,"无人机在没有人类帮助的情况下识别、选择和攻击目标 "只是时间问题。埃利奥特-阿克曼(Elliot Ackerman)和前北约盟军司令詹姆斯-斯塔夫里迪斯(James Stavridis)上个月在《华尔街日报》上预测,这种由系统指挥的无人机群 "即将改变军事力量的平衡"。还有人认为,未来已经到来。
与乌克兰一样,在加沙发动的猛烈攻势有时看起来就像一场倒退,在某些方面比起美国人越来越习惯的反叛乱和智能战役,它更像一场20世纪的全面战争。截至 12 月,加沙近 70% 的房屋和一半以上的建筑遭到破坏或摧毁。
据联合国称,如今只有不到三分之一的医院仍在运转,110 万加沙人面临着 "灾难性 "的粮食不安全。这看起来可能是一场老式的冲突,但以色列国防军的攻势也是对未来军事的不祥暗示--它既是由反恐战争开始后才出现的技术实施的,也是由这些技术监控的。
上周, 972 和 Local Call 刊发了亚伯拉罕的后续调查,英国《卫报》也以 "机器冷酷地做了这件事 "为题,发表了一篇借鉴同一报道的文章。美国国家安全事务发言人约翰-柯比(John Kirby)已注意到这篇报道,以色列议会阿拉伯议员艾达-图玛-斯利曼(Aida Touma-Sliman)和联合国秘书长安东尼奥-古特雷斯(António Guterres)也讨论了这篇报道。
古特雷斯说他对此 "深感不安",11 月的报告描述了一个名为 "福音"(Habsora)的系统,据亚伯拉罕采访的现任和前任以色列情报官员称,该系统可以识别 "武装分子活动的建筑物和结构"。以色列国防军对这一新调查提出了质疑,该调查记录了另一个被称为 "薰衣草 "的系统,该系统被用来编制一份疑似战斗人员的 "击*名单"。他写道,薰衣草系统 "在对巴勒斯坦人史无前例的轰炸中发挥了核心作用,尤其是在战争初期"。
亚伯拉罕认为,从功能上看,加沙的毁灭--*害了3万多名巴勒斯坦人,其中大部分是平民,包括1.3万多名儿童--提供了人工智能发动战争的愿景。他写道,"人工智能对军方行动的影响如此之大,以至于他们基本上把人工智能机器的输出'当作人类的决定来对待,"尽管算法公认有10%的错误率。一位消息人士告诉亚伯拉罕,人类通常会对每项建议进行 20 秒钟的审查--"只是为了确保拉"薰衣草"标记的目标是男性",然后再给建议盖上章。
人工智能战争的前景所引发的更抽象的问题令人不安,不仅是机器出错的问题,还有最终责任的问题: 谁该为几乎没有或根本没有人类投入或监督的攻击或战役负责?尽管军事人工智能的一个噩梦是它被赋予了决策控制权,但另一个噩梦是它帮助军队提高了决策效率。正如亚伯拉罕所描述的那样,"薰衣草 "并不是在加沙肆虐,而是它自己的错误行为。相反,它被用来以非常特殊的方式权衡可能的军事价值和附带损害--它不像军事判断的黑匣子神谕或道德责任的黑洞,而更像以色列国防军战争目标的显性设计。
亚伯拉罕报告说,以色列国防军在 10 月份曾一度将拉文德确定的低级战斗人员作为攻击目标,但前提是可能造成的附带损害不能超过 15 或 20 名平民死亡--鉴于低级战斗人员的附带损害被认为是不可接受的,这个数字之大令人震惊。亚伯拉罕报告说,更高级别的指挥官将成为目标,即使这意味着要*死 100 多名平民。亚伯拉罕写道,越来越多的以色列国防军为了避免浪费智能炸弹来攻击可疑的初级特工人员的住宅,而选择使用精确度低得多的哑弹。
这并不是科幻小说中黑暗的人工智能魔法。它更像是 "绿野仙踪 "现象: 起初看似超凡脱俗的奇观,最后却发现只是一个人在幕后操纵着开关。
事实上,在对新报告的回应中,以色列国防军表示 "没有使用人工智能系统来识别恐怖分子",并写道 "信息系统只是分析人员在目标识别过程中的工具"。
据《国土报》报道,以色列国防军此前曾吹嘘其在针对哈马斯的行动中使用了人工智能,并在加沙设立了广泛的 "*戮区",任何进入该区域的人都会被假定为恐怖分子并遭到射*。
在美国有线电视新闻网上,分析师巴拉克-拉维德(Barak Ravid)告诉安德森-库珀(Anderson Cooper),他曾与一名以色列预备役军官交谈,后者告诉他 "地面指挥官的命令基本上是--射*所有处于战斗年龄的人",这一描述与前美国中央情报局局长兼国防部长莱昂-帕内塔(Leon Panetta)上周的言论不谋而合,他说:"根据我的经验,以色列人通常是先开火,然后再问问题"。
事态将何去何从?这个问题不仅适用于以色列在加沙的行为,也适用于乌克兰的无人机升级,在乌克兰,无人驾驶的混战已经左右了战争的进程,俄罗斯在那里广泛部署了电子战工具来干扰乌克兰的无人机,而且根据《石上战争》的分析,俄罗斯正在 "试图大步迈向整个*伤链的自动化"。
新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)在今年 2 月发表的一篇题为 "即将到来的人工智能战争危险时代"(The Perilous Coming Age of A.I. Warfare)的文章中,勾勒出了近期可能出现的几种前景,从像高频交易机器人一样独立作战的自主蜂群,到人工智能可能被授权管理现有核武库。
他还提出了一个积极的、可能是乐观的五点计划:各国政府同意人类对军事人工智能的监督,禁止以人为目标的自主武器,制定防止事故的最佳实践协议,各国限制人类对核武器的控制权,以及各国采用常规的无人机行为指南。沙雷写道:"如果没有限制,人类就有可能在危险的、机器驱动的战争中狂奔,"采取行动的窗口正在 "迅速关闭"。
并非所有人都同意,我们正在接近军事奇点,过了这个奇点,战争将变得面目全非,而不是缓慢演进,表面之下发生更多变化。
军事学者安东尼-金在《石上战争》(War on the Rocks)杂志上写道:"军事革命往往没有其倡导者最初推测的那么激进。虽然他认为我们离人类监督的终结并不那么近,并称我们 "不太可能 "很快就会发现自己处于一个真正自主战争的世界,但他也认为 "数据和人工智能是当代战争的一个--甚至可能是--关键情报功能"。
事实上,"任何想在未来战场上取得胜利的军队都需要利用大数据的潜力--必须掌握涌入战场的数字化信息,"他写道。"人类根本没有能力做到这一点。人工智能大概可以做到。
,