资讯

美国陆军退役将军Murray:人工智能和没有人类的战争

编译 2021-04-24 13:29 DDing 来源:AGV网

陆军未来司令部司令官约翰·默里(John Murray)将军认为,人工智能是对敌方无人机袭击的计算机群的答案。

在美国德克萨斯州奥斯丁市的《战争的未来特征》和《武装冲突法》在线活动上,Murray提供了一个未来的作战场景,其中涉及美国军队中人工智能的快速发展及其带来的道德挑战。在未来冲突中进行自主武器的道德辩论上说:

“如果您想到诸如成群的事物,比如说一百辆半自动或自主无人机,一些致命的,一些感知的,一些干扰的,一些在指挥与控制下的东西-请回首尔奥运会闭幕式。人类有能力挑选出必须与哪些人交战,然后针对无人机群做出100个单独的交战决定,这是否在人的能力范围之内?如果您正在谈论对无人驾驶平台或机器的影响,那么甚至有必要让它成为一个人。一旦您获得了无人驾驶飞机群,而它们又在三公里外,您将不会有30秒的时间站在地图板上,并做出这些决定。”

据美国陆军39年退伍军人默里(Murray)称,这是一个简单的事实,我们将不得不学习在战场上信任人工智能。这意味着,可能需要放宽控制人类对人工智能的控制的规则。这种道德辩论在俄罗斯或中国或其他任何地方都没有进行。那么,这对五角大楼的未来主义者和战争规划者意味着什么呢?他们打算为未来几年的敌人袭击和威胁做准备并作出预期?

Murray警告说:“当您谈论诸如决策优势,我们正在努力的速度和不断扩大的范围之类的事情时,这并不是您想要排在第二或第三的位置,我现在想告诉人们的时候是进行这些辩论的时候了,因为最终,作为美国陆军,我们在政策下运作,并且受到立法者制定的政策的约束。”

无论人类是处于循环中,处于循环中还是处于循环之外,也没有任何简单的答案。

Murray说:“这不仅是一个简单的问题,更是细微的差别。”

将军记述了自己在机械化部队中的生活,以比较“老派”军队与当今的能力。

Murray将军说,人类可能无法对抗敌方无人机群,而在治理人工智能人为控制的规则可能需要放宽。

“我记得,这是我们使用的技能测试的一部分-我们可能仍会使用闪存卡,就像我学到了数学表一样。这是T-72,T-80,T-90,谢里登,艾布拉姆斯坦克,酋长,挑战者,梅卡瓦。如果枪手正确率达到80%,我们会将那个19岁的年轻人……放在120毫米光滑口径的加农炮上,然后将它们放开。如今,我们正在实验的平台上拥有算法,它们可以达到约98.8%的准确性,对吗?”

根据Murray的说法,人工智能实际上有能力对有效目标或无效目标做出更好的决策,而这实际上是一个人的建议,因为该算法会给出建议。它会自动进行扫描,识别并发出呼叫,就像现在存在的某些面部识别软件一样。

“我认为这就是人工智能的力量……这关系到人类决策者的能力,而且我认为这会在短期甚至很远的将来导致人类做出另一种人命。如果您去过伊拉克和阿富汗,并且对C-RAM很熟悉……我的意思是C-RAM受到雷达打击,它会击落导弹,火箭弹和炮弹。如果它感觉到雷达图像中有冲突,它将关闭,然后在冲突消除后重新接合。我们的爱国者,我们的防空系统,有能力进行自动交战,这是人为决定是否取消自动交战。这是有待辩论的,但我从根本上相信,在某些情况下,有些细微的情况下,人类将无法跟上所提出的威胁。”

从更大的角度来看,Murray认为,这不仅仅关乎技术,甚至不在于建立对这些复杂系统的信任,还关乎拥有能力和准备就绪,因此;

“我们的对手每一天都醒来,说今天不是今天。他们只是,他们不想接受这一点,你知道,他们不确定今天是否可以赢球。这就是AFC真正的目的。”

迄今为止,C-RAM拦截LPWS功能被认为可以成功拦截375次以上高价值战场资产所发射的火箭弹和迫击炮弹,而不会造成杀伤力或附带损害。

具有讽刺意味的是,Murray承认,尽管对操作环境的未来进行了很多讨论,但他们可能会弄错了。

“这是我谈论未来时经常说的一件事,要做的第一件事就是承认自己可能错了。但是……您只需要对而不是错。当我们考虑到这一点时,我们会想到诸如活动过度之类的事物,这些事物以惊人的速度发生。我们想到了传感器饱和之类的东西。”

Murray补充说,要从未来的战场上隐藏的传感器数量(从太空,空中到地面)隐藏的能力几乎是不可能的。

“我们考虑诸如将向司令官提供的信息量之类的事情。随着司令员必须考虑多少信息,它只会随着时间呈指数增长。”

毫无疑问,机器具有更快的反应速度,并且能够同时跟踪几件事,并且不会因疲劳或恐惧而烦恼,疲劳或恐惧会导致战斗中的错误决策。

那么,作为与它最亲密的盟友和伙伴一起联合作战的一部分的美国陆军的概念是什么?

“如果您考虑一个传感器丰富的战场,并且考虑必须做出决定的速度。然后您会听到麦康维尔将军,他谈论五个关键词。”他说。

“速度,范围和融合-这就是在所有五个战争领域中效果的融合-以及决策优势。这些都是我们需要实现超匹配并在未来保持超匹配的东西。从战争的角度来看,速度真的很有趣。速度确实是一个有趣的概念,实际上,因为这是我们得到的报酬,是速度,以最快的速度我们不仅可以通过合法的方式而且可以通过道德的方式产生致命的后果。算法,人工智能,机器学习以及最终的量子量如何才能提高这种速度水平。绝对会有犯错误。就像战争的混乱一样,总是会犯错误。”

但是,就自动武器而言,并非所有美国盟友都在同一页上。欧洲监管机构完全走了一条不同的道路。

最近,欧洲议会裁定:“使用自动武器系统选择目标并采取致命行动的决定,必须始终由人类根据相称和必要性原则进行有意义的控制和判断。”

换句话说,自主决定自主武器的行为应被取缔。尽管围绕该主题的辩论仍在继续,但以这种速度,在辩论结束之前,可能会在行动中使用大规模的人工智能动力群武器。最大的问题是哪个国家将首先拥有它们。

0 0

网友评论

取消