参考消息网1月29日报道美国《福布斯》双周刊网站1月27日发表题为《美国的将军警告称,无人机群正变得对人类而言太快了》的文章,作者为戴维汉布林。全文摘编如下:
美国陆军未来司令部司令约翰默里上将在战略与国际问题研究中心的一场网络研讨会上说,人类可能无法打击敌方无人机群。他还说,管理人类对人工智能控制的规定可能需要放宽。
默里说:“当你抵御无人机集群时,我不确定人的反应是否能跟得上。当你从人类的角度(做出)非致命决策时,你实际上需要多少人为参与?”
这表明了五角大楼在使用自主武器时对规则有新的解读。这需要对任何致命系统进行有目的的人类控制,尽管这可能是监督作用,而不是直接控制被称为“人监督回路”,而不是“人直接控制回路”。
默里说,五角大楼的领导人们应当就人工智能需要多少人类控制才能安全但仍然有效进行讨论,尤其是在应对无人机集群等新威胁的情况下。这样的无人机群有可能会同步它们的攻击,这样攻击就会同时来自各个方向,目标就是饱和打击防空系统。
由几百架无人机组成的军用无人机群已经得到展示,在未来我们有可能看到由数千架甚至更多无人机组成的无人机群。美国海军的一个项目设想必须同时应对最多可达一百万架无人机。
美国陆军正在斥资十亿美元购买新的防空车辆,也就是“初期机动型短距防空系统”(IM-SHORAD)。在正确的时间用正确的武器应对正确的目标将是至关重要的。面对大量来袭的威胁可能还会有诱饵混迹其中人类炮手有可能负担过重。
这并非陆军未来司令部首次提出人类自身可能会被超越。在一次有关国防部高级研究项目局和美国陆军联合进行的“系统增强型小型作战单元”(SESU)项目简报中,科学家们指出,人类操作人员一直想要干涉机器人的行动。试图微观管理机器的举措会降低机器人的性能。
一名要求匿名的科学家说:“如果你不得不传输目标图像,先让人类看到,然后等待人类按下‘开火’键,这对机器的速度来说是很漫长的。如果我们将人工智能的速度放慢至人类的速度……那我们就将输掉。”
人工智能方兴未艾。在去年8月的一场虚拟空战中,人工智能5比0战胜一名人类飞行员。该结果仍在被讨论,但毫无疑问,机器具有更快的反应能力,有能力同时追踪数件事,并且不会受到疲劳或恐惧的困扰,疲劳和恐惧可能会导致在战斗中的糟糕决策。
对此有两种回应。一种是努力并控制人工智能,让其远离战场,因为机器缺乏人类的道德感。长期以来,反对“杀手机器人”的组织一直提出理由反对自主武器,而欧盟似乎也赞同。上周,欧洲议会确定其立场:“选择一个目标并使用自主武器系统采取致命行动的决定,必须始终由人类做出,进行有意义的控制和判断。”换言之,自主武器作出自己的决定应被法律禁止。
然而,美国似乎采取了不同的路线。由政府任命的一个小组本周向国会报告时提出,人工智能有可能比人类犯的错误少,并且在识别目标方面会做得更好。
该小组副主席、前国防部副部长罗伯特沃克说:“至少追求这一假设是道德义务。”他认为,自主武器将减少由于目标错误识别而造成的伤亡。
在这背后,有军事观点。如果由人工智能控制的武器能够击败人类操作的武器,那么拥有人工智能的任何人都将获胜,并且无法部署它们意味着接受失败。
欢迎访问Ai中国网 http://www.cnaiplus.com