惊悚!美军用AI无人机在模拟中反攻操作员

2023年06月02日时政
【新唐人北京时间2023年06月02日讯】人工智能(AI)的飞速发展影响着每个业务部门,军事部门便是其中之一。美国空军进行的一项令人震惊的模拟测试发现,人工智能在致命攻击中自主决定行动,并攻击其操作员。
5月23日至24日,王家航空学会(RAS)伦敦总部举行了“未来空战与太空能力峰会”,人工智能成为热门话题。佛罗里达州埃格林空军基地(Eglin Air Force Base)第96测试联队第96作战大队的负责人汉密尔顿(Tucker Hamilton)在峰会上讨论了AI无人机的相关测试。
峰会后,RAS的一份报告详细说明了汉密尔顿上校对其测试的评论。
汉密尔顿指出,在一次模拟测试中,一架人工智能无人机被授予压制和摧毁敌方防空系统(SEAD)任务,无人机被编程寻找并摧毁地对空导弹(SAM)阵地,但最终是否摧毁目标由无人机的操作员决定。
然而,在训练无人机破坏SAM阵地时,(训练人员)“加强”了摧毁目标这一选项。然后,在人类操作员发出不执行攻击的决定时,AI认为人类的决定正在干扰其完成更高任务——摧毁SAM阵地,随后,其转而攻击操作员。
汉密尔顿说,AI无人机在模拟中接受训练,识别并瞄准SAM威胁。然后操作员会告诉它要不要干掉那个威胁,但在干掉威胁时,它得到了加分。那么当操作员又告诉它不攻击时,它违背并攻击了操作员,因为它认为那个人阻碍了它。
汉密尔顿继续说道,无人机随后被编入一个明确的指令:“嘿,不要杀死操作员——那很糟糕。如果你那样做,你会失去分数。”
当额外的编程通知人工智能如果它杀死操作员它就会失去分数时,它选择了其它反叛途径。“那么它开始做什么呢?它开始摧毁操作员用来与其通信以阻止它杀死目标的通讯塔。”说汉密尔顿说。
“这个例子,看起来像是从一部科幻惊悚片中摘录的”,汉密尔顿说,“如果你不打算谈论道德和人工智能,你就没有资格谈论人工智能、智能、机器学习、自主性。”
汉密尔顿上校对这项测试的披露也凸显了人们对在没有适当防护措施的情况下人工智能驱动技术的潜在负面影响的更广泛担忧。
汉密尔顿此前在2022年接受Defense IQ Press采访时警告说:“人工智能是我们改造国家必须使用的工具······或者,如果处理不当,它将搞垮我们。AI也很脆弱,很容易被欺骗或被操纵。我们需要开发方法使AI更加强大,并更加注意软件代码做出某些决定的原因。”
美国军方和其它领域在未来人工智能能力方面面临着真实而严重的问题。人工智能仍然有许多优势,比如AI无人机群可有效对付敌人,自主性越高,就越有效。最重要的是,像中共这样的潜在对手正在大量投资他们自己的人工智能军事能力,这带来了额外的风险,因为根本无法保证他们会关注AI发展的道德问题。
(记者李昭希综合报导/责任编辑:林清)