G7拟制定AI武器限制协议 专家:中俄是破口

2024年06月14日时政
【新唐人北京时间2024年06月14日讯】G7峰会即将于本月13至15日在意大利举行。日媒披露,届时限制AI武器发展的协议将被写入G7联合声明。美国媒体直言中、俄不会接受限制,相关协议恐难以起效。军事专家则警告,一旦发展AI 自主杀人机器,其对人类的威胁远大于冷战时期的军备竞赛。
日报共同社报导说,有外交消息人士透露,在即将举行的七国集团(G7)峰会上,将制定军用人工智能(AI)的开发和使用规则。日美欧拟在G7峰会的联合声明中,针对AI写入“有必要在军事领域推进负责任的开发与使用的机制”的内容,并已为此展开协调。
报导指,关于AI的军事利用,声明草案将要求各国遵守国际法,尤其是应顾及到人道主义。此外还提及AI对司法的影响,警告“AI的使用绝不能妨碍法官的判断和司法独立性”等。G7 峰会的联合声明出示的内容或影响今后各国对AI应用管制的讨论。
针对上述消息,美国之音报导说,“这套西方主导的规范对中、俄等军事大国几乎不具约束力,恐怕这才是最大的隐忧”。报导指出,中俄就连美国推动的“负责任使用军用AI”方案都拒绝签署。观察人认为,在这样的情况下,“各国野蛮扩张AI军武的风险恐加剧”。
报导提到,去年底在杭州亚运田径场上搬运铁饼的“呆萌”机器狗,在今年5月底已经背上机关枪,在中柬举行的联合军演中成为中共军方执行侦察和突击任务的“战犬”。只不过,或许北京当局担心AI武器造反,所以现在这款机器战犬仍由人工遥控,智能程度属“弱AI”等级。
对此,澳大利亚南威尔士大学的AI首席科学家沃尔什(Toby Walsh)表示:“要将原本由人类控制的半自动武器系统改为无人化,是件简单的事,或仅须改几行程序码就做得到。”
他强调,AI技术如果用于军事防御系统救人是好事,但“如果用于失序杀人,绝对是作恶”。
报导援引分析人士的看法指出,更严重的是,军用AI如果搭载类神经网络机器深度学习技术,这样的运用可能让武器交由机器自主控制,变身为 “致命性自主武器”。而这些超级AI军武一旦落入恐怖分子之手,后果不堪设想。
虽然各国目前都坚称无意开发“致命性自主武器”,但沃尔什担心,各国AI军事扩张的不透明性,可能给人类带来比冷战时期更危险的威胁。
报导介绍了美、中两国在军用AI运用方面已经取得的一些进展。例如:美国军援乌克兰的攻击型无人机就已具备人脸辨识功能,“号称可锁定俄军将领,执行精准的斩首或自杀任务”。而中共军方的AI军武开发进度虽隐密,但火箭军的AI导弹据称发射后仍可以即时控制;空军的“翼龙”无人机系列也已成熟,并销往巴基斯坦、缅甸和中东等国。
不过,中方的AI武器发展仍受限于高科技人才和工程设计经验不足,外界“难以确认中国AI军武的真正实力”。
中共国防部发言人吴谦曾于去年底表态称,中方愿意就军用AI的发展规范与国际社会寻求共识,以确保AI武器系统“永远处于人类控制之下” 。
对此,台湾国防安全研究院中共政军与作战概念研究所助理研究员王绣雯对美国之音表示,中方的思维重点是防止自家军人或机器叛变。她说:“共产党它担心,搞不好解放军的机器人会拿它的机枪对着中南海,机器人叛变也不一定”。
(责任编辑:李明)