【新唐人北京时间2024年08月04日讯】欧盟制定的《人工智慧法》已于8月正式生效,并将于2026年全面实施。近年来,与AI相关的深度伪造和语音合成技术被用于犯罪,AI诈骗案件呈现爆炸式增长,受害者遍布全球且不少人因此倾家荡产。
上述法律是全球第一个与AI相关的大型法律,宗旨是解决AI的负面影响、制定全面的监管框架,规范企业在AI方面的开发、使用和应用方式。
该立法对不同的AI采用四个等级的风险制度。关键基础设施、教育或职业培训及医疗等方面的AI应用,皆被视为“高风险”。这些高风险的AI应用,需要严格遵守监管、安全、稳定和准确性等重要义务。
另外,该法律要求“有限风险”的AI开发商要有公开透明的义务,要让使用者知道与他们对话的是AI,还是真人。若向公众通报公共利益问题时,需要标注是否使用AI,该项规则也适用于“深伪技术和语音合成内容”。
虽然该法律对于其它2个低等级风险的AI应用要求不这么严格,但这些AI也要受到当局的市场监督,且厂商要对AI程序自行监督和建立监控系统,若发生严重事件或故障,皆需要向当局进行“报告”。
若违反该法律的公司,最高可能会被处以750万欧元(约960万美元)到3500万欧元(约3780万美元)或全球年收入1.5%到7%(以较高金额为准)的罚款。
AI相关诈骗案频传
欧盟的《人工智慧法》可以说是用来应对AI在性能大幅度提升后所衍生的诈骗、黑客、假讯息等问题。另外,现实世界中与AI相关的犯罪案件,也正在不断增加当中。信用卡支付巨头Visa在7月底披露,越来越多不肖人士利用AI的能力,生成信用卡上的主卡号(16位数字或19位数字),并利用其算力进行快速持续测试直到破解主卡号、卡片背后的安全码(CVV)、到期日期和获得批准回应。
他们还提醒,现在许多爱情骗局、投资骗局、杀猪盘等骗局,都在使用AI进行诈骗。另外,Visa在今年3月提出一份威胁报告就曾提到,在2022年10月至2023年9月间,公司阻止了共400亿美元的诈欺活动,该数据几乎是一年前的两倍。
目前与AI相关的着名网路诈骗案件,莫过于英国伦敦的会计师杨海伦(Helen Young,音译)被假的中共警察诈骗了29,000英镑(约37,000美元),而这些歹徒正是利用了海外华人对中共的恐惧心理和极具欺骗性的AI画面达成目的。
海伦在7月初向媒体披露,一名假警察先是打视频电话给她,并利用AI技术向她展示逼真的警服、警察证件和功能齐全的警察局画面,随后指控海伦涉嫌参与一起大型金融诈骗案。
这名假警察还要求她接受调查、下载一个监控程序和签署一份保密协议,并警告她不许向外界透露调查,否则就有生命危险。不久后,海伦收到一段关于“嫌犯”向警方认罪并指控她是整个金融诈骗案的“主谋”的视频。
这段视频让她心生恐惧,于是向这名假警官支付29,000英镑的保释金,以避免自己被引渡回中国,原因是海伦当下认为她回到中国必死无疑。
几天后,假警察向她索要25万英镑(约32万美元)赎金,但这次海伦选择将事情告诉女儿,女儿则告诉她这是一场诈骗案件,并陪同她报案和去银行报告,幸运的是,她们最终要回这笔巨款。
不过其他人就没有像她那么幸运。据美国联邦调查局(FBI)连续两年发布有关于网路犯罪报告显示,2023年网路犯罪分子实施网路诈欺的频率和财务影响都出现创纪录增长。
FBI网路犯罪投诉中心(IC3)从民众那里收到88万起投诉,它们估计潜在损失超过 125亿美元,与2022年相比,投诉数量增加了近10%,损失增加22%。
FBI在报告中也提到,投资诈骗造成的犯罪损失最高,这些歹徒会利用虚假资讯,诱导投资者进行虚假的投资。2023年的投资诈欺损失已增至45.7亿美元,比2022年增长38%,其中是最常见的诈骗类型是网路钓鱼诈骗。
深伪技术和语音窃取技术成为犯罪利器
除了FBI提到的网路钓鱼诈骗之外,还有歹徒利用AI的深伪技术和声音窃取的方式,伪造名人影片进行虚假宣传,或制作虚假视讯通话进行敲诈勒索,可以说这些技术正在挑战我们对于现实的认知。罗马尼亚网络安全技术公司Bitdefender在今年7月初发布了一项关于犯罪分子使用AI中的深伪技术进行“虚假药物宣传”的报告,并揭露犯罪分子是如何用AI,将相当常见的骗局提升到新水平。
报告中提到,歹徒利用深伪制作一些知名医生、电视主持人和医疗保健专业人士为不存在的“灵丹妙药”进行虚假代言和背书,并将这些欺骗影片散播到Facebook、Instagram等社群媒体平台。
这些虚假广告中的人物形象和声音都十分逼真,甚至可以做出眨眼、微笑等细微表情,许多罹患癌症、慢性病甚至不治之症的患者信以为真,去购买这些药物,导致他们可能延误病情,甚至出现生命危险。另外,有人点击这些含有钓鱼性质的购买链接后,就会被窃取数据或清空资料。
报告还提到,歹徒还会利用那些被他们控制的社群媒体帐号,去做更多的推广活动,使受害者人数不断地增加。
着名的英国医学杂志《BMJ》在7月中发表的一篇关于“深伪技术”的警示报告也提到,一些不肖人士利用深伪在社群媒体上散播一些虚假的药物的广告,而这种“深度赝品”也在日益增多,因为研究表明,将近一半的人无法真正区分出真品与赝品。
另外,英国工程公司奥雅纳(Arup)在5月的时候向媒体证实,他们公司的一名员工在2月因一通深度伪造的视讯通话,向犯罪分子发送了2,560万美元。
Visa首席风险和客户服务长保罗‧法巴拉(Paul Fabara)3月在该公司的半年威胁报告中表示,“随着生成式AI与其它新兴技术的使用,这些诈骗比以往任何时候都更具说服力,并给消费者带来前所未有的损失。”
美国身分和存取管理公司Okta在2024年1月就曾警告,网络犯罪分子只要利用AI,就能在三秒内克隆使用者的声音,并将这些声音用来诈骗其他人,让其以为这个声音是真实的。
日本的电脑工程师清原仁(Kiyohara jin)8月1日对大纪元表示,“尽管AI给人类带来诸多好处,但相关的犯罪也在逐年增多且有失控趋势。这些问题都是人的道德没有跟上导致的,只有人提升自身的道德,才能解决根本的问题。”
日本电子工程师荻野悟(Satoru Ogino)持相似的看法。他对大纪元表示,“目前所有问题的关键在于人心。另外,这些坏人利用普通人对亲人或名人的信任进行诈骗活动,将严重破坏人和人之间的信任,使人们之间的分歧变得更大。”
专家教你如何应对AI假消息
目前,真假难辨的AI诈骗可以说日益猖獗,人们除了需要提高警惕多方查证之外,还能做些什么呢?以下是专家和政府给的一些防范建议。美国政府消费者和工人保护部(DCWP)告诉民众如何辨别AI相关的诈骗:寻找影片或视频电话中不正常抖动或不切实际的动作,观察光线或肤色的变化、眨眼(人物可能都不眨眼)及眼睛周围的阴影。
除此之外,还可以倾听声音和影像不一致的地方,或说话者是否做了一些不符合他性格的举动,例如索取你的钱或个人资讯。因为这些经过AI深伪的影片,有时会存在奇怪的字词选择、生硬的语言和断断续续的句子。
据弗吉尼亚州社会媒体theroanokestar.com报导,弗吉尼亚理工大学(VT)图书馆员兼数位素养教育家朱莉娅‧费拉尔(Julia Feerrar)表示,“识别错误讯息(无论是否由人工智慧产生)最有效的方法之一就是,查看它的来源,并观看正规的新闻媒体。如果你有点不确定消息来源,可以通过多方面搜索去验证消息。”
她说,“这种方式称为横向阅读,就是对内容本身进行更多搜索,去查证自己阅读的内容是否正确,同时可以查看其它值得信赖的新闻媒体是否报导了您所看到的相同标题。”
清原仁也提出自己的建议。他说,“由于目前AI还无法回答跨度大或过于复杂的问题,我们可以利用这点去检测对方是真人还是AI。另外,遇到事物先冷静思考和保持理智,抑制自身的冲动之后,再对得到的消息进行经过多方面验证,这样做就能大概率避免掉这些诈骗。”
(记者张钟元、王佳宜对此文有贡献)
(转自大纪元/责任编辑:叶萍)