通版阅读请点击:
展开通版
收缩通版
当前版:A13版
发布日期:
无人机首次自主杀人!“潘多拉魔盒”打开?
  日前,联合国安理会利比亚问题专家小组发布的一份长达548页的报告震撼了国际舆论。利比亚内战的战场上,一架土耳其生产的自杀型无人机在完全自主模式下,攻击了一名参战士兵。《新科学家》杂志称,这是有史以来第一例明确记录在案的“机器自主杀人事件”。科幻电影里的场景最终在真实的世界里发生了,人们忧心忡忡——现实版“终结者”真的来了吗?
  无人机“思考”后杀人
  去年3月,得到土耳其、美国和英国等支持的利比亚民族团结政府,同得到埃及、法国和俄罗斯支持的、由哈夫塔尔将军率领的“国民军”的战斗进入白热化阶段。
  根据报告,一名“国民军”士兵在试图撤退时,遭到一架“卡古”2型四旋翼无人机的攻击。但与此前的无人机攻击事件迥然不同的是,之前的无人机“斩首”也好,自爆也罢,都是执行位于后方的人发出的指令,而这次的攻击却是机器自己“思考”后的决定。
  “卡古”2型四旋翼无人机由土耳其STM公司生产,配有炸药并可对目标进行自杀式攻击。
  据介绍,“卡古”型四旋翼无人机是一种具备完全意义上“发射后不用管”的无人机,它基于人工智能的“深度学习”能力,不仅能自主识别和分类攻击目标,还具有集群作战的能力,允许20架无人机协同攻击。
  俄罗斯知名无人机专家丹尼斯·费杜季诺夫5月31日表示,这种能力在技术上是可行的,但土耳其军事工业把它从可行变成现实,无异于打开了“潘多拉魔盒”。
  技术风险引发争议
  很多人还记得2017年中国围棋棋手柯洁与围棋机器人“阿尔法狗”的那场人机世纪大战。“阿尔法狗”是由谷歌公司下属团队研发的围棋机器人,主要工作原理是“深度学习”。结果,柯洁以0:3的战绩输给机器人。
  具备自主攻击能力的无人机,本质上也是被人工智能“深度学习”能力武装过后的机器人。只不过,“阿尔法狗”学习的是下棋,而武装无人机学习的是杀人。
  然而,现有的“深度学习”并不可靠。联合国报告称,这种无人机是运用计算机视觉来选择和攻击目标,而以自动驾驶技术的研发为例,现在的人工智能在图像识别领域的“学习成绩”还有待提高,并不能总是准确地识别人员、车辆和障碍物,更别说及时做出判断和反应。
  有鉴于此,土耳其的无人机能够准确地辨别士兵与平民、装甲车与大巴吗?能够准确区分样貌相似的两个人吗?
  缺乏国际管制机制
  实际上,联合国报告隐含的一个核心问题是,人类能否阻止或延缓自主杀人机器大军的问世。
  遗憾的是,科学界并不乐观。美国国家恐怖主义与反恐对策研究联合会的研究员扎克·卡伦伯恩表示,这是机器向人类发出的警报,威胁丝毫不亚于传统的大规模杀伤性武器。
  与门槛很高的核武器不同,无人机技术更新及扩散极快,且缺乏相应的国际管制机制。一旦恐怖组织获得相关技术,那么其能制造的恐怖效应简直难以想象。
  更严重的是,在当前的国际氛围下,以人工智能为代表的高新技术成为国家间激烈竞争的高地,在军事领域尤为明显。
  据美媒2017年报道,美国密苏里大学团队设计和训练的人工智能程序,已经具备相当的军事能力。环球网曾引述报道称,在一块面积约为14.5万平方公里的卫星照片上,人工智能找到90个防空导弹阵地所花费的时间仅为45分钟,而人类专家通常至少需要60个小时。
  过去,包括埃隆·马斯克在内的许多人工智能研究人员,以及史蒂芬·霍金等科学界知名人士,都曾呼吁全球禁止研发“自主攻击性武器”。但正如英国《独立报》报道,包括美国在内的许多国家都在阻挠防扩散和监管机制的建立。对此,英国智库皇家联合军种国防研究所的研究员杰克·沃特林表示,“技术不等人。”据《新民晚报》