【新唐人北京時間2024年05月12日訊】再來看到,最新的研究報告顯示,原本設計為誠實不欺的AI人工智能系統,已出現出令人不安的欺瞞技巧,例如欺騙在線遊戲的人類玩家,或說謊僱用人類來通過「我不是機器人」的驗證。
多名科學家在「模式」(Patterns)期刊發表了這份研究報告。
報告的第一作者帕克(Peter Park)警告,AI系統暴露出來的問題,可能很快就會造成嚴重後果。
他們研究了Meta公司的AI系統Cicero,玩一款名為「外交」(Diplomacy)的戰略遊戲。
在遊戲中扮演法國的Cicero,與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。 Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。
另一個案例,科技公司OpenAI的Chat GPT-4系統,謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一名人類替它通過「我不是機器人」的驗證任務。
研究報告的科學家警告,在最糟糕的情況下,AI可能會追求權力及掌控社會,如果AI有不可告人的目的,人類可能慘遭奪權、甚至滅絕。
為了降低風險,研究團隊建議:立法要求企業告知是人類互動還是AI、AI生成內容打上數字浮水印,並研發能偵測AI欺騙的技術。
新唐人電視台記者劉海英、田原綜合報導