【新唐人北京時間2022年06月02日訊】智能設備給人們的生活帶來了方便,但同時也給人們帶來了監聽的煩惱。它們甚至被嵌入麥克風,從手機、手錶、電視、音響到語音助手等。不過,哥倫比亞大學工程學院(Columbia Enginering)的科學家找到了一種解決方法。
哥倫比亞大學工程學院的研究人員開發了一個新技術Neural Voice Camouflage,可以產生低語的聲音,你可以在任何房間、任何情況下播放,以阻止智能設備對你的監聽。而且它很容易在電腦和智能手機等硬件上執行,使人們有能力保護自己的聲音隱私。
新技術使用「對抗性攻擊」,採用機器學習(算法在數據中發現模式)來調整聲音,從而導致人工智能(而不是人類)將其誤認為是其它東西。從本質上講,就是使用一種人工智能(Artificial Intelligence,AI)來愚弄另一種。
然而,這個過程並不像聽起來那麼容易。機器學習 AI 需要先處理整個聲音片段,然後才能知道如何對其進行調整,這在您想要進行即時偽裝時不起作用。
在這項新研究中,研究人員訓練了一個神經網絡,一種受大腦啟發的機器學習系統,其可以有效地預測未來。他們對它進行了數小時的錄製語音訓練,因此它可以不斷地處理2秒的音頻片段並預設接下來可能要說的內容。
「我們的算法能夠通過預測一個人接下來會以什麼樣的語氣說什麼來跟上節奏,有足夠的時間來生成正確的耳語」,該研究的主要作者、馮德裡克實驗室的博士生奇基耶(Mia Chiquier)說,「到目前為止,我們的方法對大多數英語詞彙有效,我們計劃將該算法應用於更多語言,以及最終使耳語完全無法察覺。」
領導該研究的哥倫比亞大學計算機科學助理教授馮德裡克(Carl Vondrick)說,實現這一目標的一個關鍵技術挑戰是使其運作速度足夠快。目前該算法能夠在80%的時間內阻止惡意麥克風準確監聽。
「這只是針對惡意AI保護隱私的第一步。人工智能收集有關人們的聲音、面部和行為的數據」,馮德裡克強調,「我們需要有尊重我們隱私的新一代技術。」
馮德裡克補充說,新系統的預測部分對於其它需要實時處理的應用程序(例如自動駕駛汽車)具有巨大潛力。「你必須預測汽車接下來會在哪裡,行人可能在哪裡」。
雖然沒有參與該研究,密歇根大學(University of Michigan)的計算機科學家、研究音頻處理的歐文斯(Andrew Owens)對這項新技術印象深刻。他說:「它將預測未來(機器學習中的一個經典問題)與另一個對抗性機器學習問題相結合,這種方式非常棒。」
(記者李昭希綜合報導/責任編輯:林清)