即时运算让AI变脸几无破绽 以手触脸也不“失真”

2023年12月21日趣味频道
【新唐人北京时间2023年12月22日讯】近年来人工智能(AI)技术取得了长足发展,但“AI深伪(Deepfake)变脸技术”在即时运算技术的加持下日臻“完善”,却也为利用此技术进行诈骗打开了方便之门。近日,有中国直播主分享的“变脸”演示令众网友大为震惊。
经常在网络社群中就社会热点话题发表时评的脸书粉专“詹姆士的讦谯时间”(James Hsieh),在其个人的脸书帐号及X 帐号上分享了一名中国直播主演示AI 换脸技术的短片,藉此说明当前人工智能变脸技术的危险之处,提醒公众慎防上当受骗。
这段影片以上下分隔为两部分的方式呈现,上半部分是利用AI深伪技术变脸后的画面,呈现出的是一位年轻美貌的女子;下半部分的画面则是伪造者本人——一位中年男子的真实容貌。
通过对比上下两部分的画面可以看到,人物的表情及举止动作的变化完全同步,包括伪造者将麦克风放在面前,或用手去碰触自己的头发、脸部,经过伪造的画面上人物的脸部特征仍然不会因此而扭曲或变形,可以说毫无破绽。
即时运算让AI变脸几无破绽 以手触脸也不“失真”
(网页截图)
“詹姆士的讦谯时间”的贴文指出,现在变脸人工智能已进化到能即时运算播出,现在不论是影片、直播还是视讯,都已变得不可信,这段变脸短片充分证明了这一点。而这项技术加上人工智能变声,也早已被诈骗团伙用来进行网络诈骗。
贴文劝诫广大网友:别再傻傻地去追捧抖音上的美女网红,在镜头的那一端,很可能只是一个“大叔”或“大妈”。
这位时评人士还讲述了一个实例:艺人王仁甫之前就曾遭遇过利用AI技术的骗局。对方先以进行民调为藉口,打电话问王仁甫的女儿一系列问题,目的就是获取她的“声纹”。几天后,王仁甫就接到了一个诈骗电话,对方的声音听上去与他女儿的声音完全一样,幸好他警惕性很高,识破了这场骗局。
“詹姆士的讦谯时间”最后再次提醒公众:“目前中国技术已经做到,只要有一个人30秒5句话的声音纪录,就可以做出配音包,打上任何字都是你在配音。人工智能年代,什么都要小心。”
中国公众号量子位也曾于12月中,分享了多个利用AI深伪换脸技术的案例,讨论了相关技术的最新进展情况。从这个公众号列举的几个案例可以发现,现在人们在互联网上利用AI技术,不仅可以轻而易举地把40岁大叔的容貌秒变为“美少女”,而且可以做到只要打字输入某个名人的姓名,就能瞬间把自己模样变成那位名人的样子。
其中一个例子是:一位相貌平平的大胡子男士坐在电脑前,开启摄像头后,打出了“elon musk”的名字,随后镜头画面上的这位男子立即变成了马斯克的模样,甚至连胡须都自动消失了。而这位男子在尽头前点头摇头、戴墨镜、捋头发、摆pose,画面上的“马斯克”都同步作出这项动作。
另一位小哥在输入“david backham”的名字后,贝克汉姆也同样出现在了屏幕上;还有网友化身“爱因斯坦”,玩起了量子玩具。众网友体验过这项技术后纷纷留言惊呼“太神奇”、“太疯狂了”。 (记者黎明综合报导/责任编辑:林清)