謝田:人工智能(AI)的危險及其背後的因素

2023年05月22日時政評論
今年五月中旬,IBM公司宣布計劃,要用人工智能(AI)來取代7800個工作崗位。IBM可不是說大話或者空穴來風,它是會真正地這樣做的,並且,IBM的諮詢顧問會迅速把這個解決方案作為最新、最牛、最有效的管理模式的新工具,推廣到其它公司去;其它公司也會立即效仿,裁減他們可以用AI取代的崗位。最後的結果就是,成千上萬的公司,甚至許許多多的行業,可能都會瀕臨絕種滅跡的前景。而美國人工智能專家最新的警告,亦即AI可能以假亂真、擾亂2024美國大選,更引起了人們最新的擔憂。人工智能的危害究竟有哪些,它的驅動力為何,其最終的目標是什麼,其背後的因素為何?都是人們需要迫切關注的話題。
因為2024年美國總統大選在即,而2020年選舉的舞弊和竊票仍然尚未完全被處理,所以,當人工智能專家表示,AI技術正在以前所未有的速度大規模地破壞選舉,這引起了美國人民和世界人們極大的擔憂。專家們設想的對選舉的破壞,從由人工智能(AI)生成的政治虛假信息在網上瘋傳,拜登疑似發表攻擊變性人的演講的視頻篡改,AI生成的兒童在圖書館學習撒旦教的圖像,無奇不有。隨著AI技術日漸普及,成本越發低廉,AI工具可以迅速產生針對性的競選電子郵件、文本或視頻誤導選民,可以冒充候選人,還能結合算法,廣泛地傳送虛假信息,使得競選的舞弊、誤導、乃至根本性的破壞,變得防不勝防。
網絡安全公司Zero Fox情報副總裁A‧J‧納什(A.J. Nash)警告說,人工智能製作音頻和視頻的能力已突飛猛進,並且能大規模地做到這一點,在社交平台上發布。對此產生的重大影響,人們還沒有做好準備。艾倫人工智能研究所的創始首席執行官奧倫‧艾茲奧尼(Oren Etzioni)更是給出了一個活靈活現的例子,「如果埃隆‧馬斯克親自給你打電話,告訴你投票給某個候選人,你會怎麼做?很多人都會聽。但這可能不是他!」
AI成為專制和極權國家惡意破壞美國選舉和制度的工具,Forcepoint網絡安全公司的全球首席技術官佩特科‧斯托揚諾夫(Petko Stoyanov)認為非常可能,那些希望干涉美國選舉的團體,可以利用人工智能和合成媒體,來削弱選民對選舉的信任。「國家、網絡犯罪分子以AI冒充某人,會怎麼樣呢?我們能追索嗎?美國人民將看到更多來自外國的錯誤信息。」
紐約州國會眾議員伊薇特‧克拉克(Yvette Clarke)在國會提案,要求參選人使用AI創建的競選廣告時,必須附加標籤,任何AI合成圖像則需在圖片上添加水印。但這並不能防止有人惡意的使用AI來干涉選舉。這樣的立法就跟槍枝管制的立法一樣,約束了合法民眾和政黨的使用AI的能力,但惡意使用AI、意圖破壞西方民主和自由的敵意政府和個人,他們不會使用水印和標籤,所以這並不能遏制AI的濫用。
傑弗裡‧辛頓(Geoffrey Hinton)曾經是谷歌的工程副總裁,他最近辭去了這個職務,並為人工智能將帶來的危險而大聲疾呼。辛頓被稱為「人工智能教父」,他認為,人工智能只需5到20年,就能超越人類的智慧;而在此之前,人類需要找到控制它的方法。他發出公開信說,馬斯克呼籲在6個月內暫停訓練那些比Open AI開發的GPT-4更強大的人工智能系統,這樣的要求「完全天真」。的確如此,馬斯克和業內專家憂心忡忡的呼籲,正好給了這個世界的壞人,如中共當局和朝鮮、伊朗等流氓政府,給出了最響亮的提醒,指出了最明確的方向,會鼓勵它們更加積極地開發人工智能系統,爭取在這一領域趕上美國等發達國家,甚至超出美國。辛頓建議的,所有政府都一定要對人工智能製出的虛假圖片、圖像進行標記,與克拉克議員的建議一樣,只能防君子和良民,不能防小人和壞人。
辛頓所建議的,那些擁有非常聰明頭腦的人,努力想出「如何控制這些東西的危險」的方法的主意,很遺憾的,在末法末劫的今天,在道德迅速下滑的時代,在大量聰明的頭腦被金錢和魔鬼誘惑的時刻,是很難實現的。人們可能不得不面臨這一可能毀滅人類的劫難。
人工智能能夠帶來的危險,就業減少,製作假新聞,還不是最大的問題。人工智能最終是否會擁有自己的目的或目標,辛頓認為,才是一個關鍵的問題,也許是這項技術能夠帶來的最大危險。
《紐約時報》五月初的文章《人工智能帶來的新恐懼:當自主殺人機器人成為軍方工具》披露說,美國限制向中國出售最先進的計算機芯片,不單是為恢復美國工業的競爭力,也有軍備控制的考量。紐時的文章認為,迫使中國放慢研發人工智能武器,可以讓白宮和世界有時間制定出一些關於傳感器、導彈和網絡武器中使用人工智能的規則,防範自主殺手機器人成為現實。設想一下,如果黑暗勢力和惡人們掌握了自主的殺人武器,人類的命運將會變成怎麼樣呢?
格倫・貝克(Glenn Lee Beck)是Mercury Radio Arts公司的創立者、擁有者和公司總執行長(CEO),公司旗下擁有美國知名的TheBlaze廣播公司。筆者曾經有幸在兩年前應邀出席過格倫的廣播節目,我們曾經有過很愉快的對話。格倫・貝克也是美國著名的保守派政治評論家、廣播主播、創業者、和電視製片人。
格倫・貝克是最知名的呼籲、喚醒人們認識到人工智能對人類社會的生存會構成重大威脅的人士之一。幾乎有一半的人工智能研究者們,都認為人工智能有可能會最終導致人類的滅絕!格倫的網站列出了來自人工智能領域13個專家的警告。
人道主義技術中心(Center for Humane Technology)的共同創建者特裡斯坦・哈裡斯(Tristan Harris)認為,人們很驚訝地發現,也完全沒有預料到的是,(人工智能)原本就是要學習和預測互聯網上出現的下一個詞組是什麼,這些人工智能模式居然發展出來了人們完全沒有預期到的新能力,只是通過學習和預測和互聯網上會出現的下一個詞組,人工智能居然就學會了如何去下國際象棋!涉及人工智能的發展,沒有任何人在「設置防護欄,」而這一發展是如此的迅猛,連美國政府都來不及去理解和了解它究竟是個什麼東西!
加州大學伯克利分校的計算機教授斯圖亞特・羅素(Stuart Russell)透露說,他發現,在人工智能領域最資深的那些研究者們,雖然他們從來沒有公開地出面證實,但他們在私下裡卻不得不承認,人類確實需要對人工智能的發展予以重視,並且越早越好。斯圖亞特・羅素並且給人們舉出了一個令人心驚膽顫的例子,那就是當年研究核聚變和原子彈的研究者們。當年研究核聚變的研究者,其領域中最關鍵的課題,就是如何去約束和限制核聚變的反應。同樣的,今天的人工智能領域的研究者們,當人工智能越來越發展完善的時候,必須把如何約束人工智能、如何確保安全,當作是最關鍵的話題。但關鍵的關鍵的問題是,約束核聚變的努力最後導致人類社會最危險的武器——原子彈的誕生,乃至核武器後來的使用,和今天核武器再度成為新的威脅。約束人工智能的努力,對人們來說,會不會也同樣變得失控呢?
賓夕法尼亞大學(University of Pennsylvania)一個研究團隊的緹娜・伊朗多(Tyna Eloundou)、山姆・曼寧(Sam Manning)、潘母拉・密斯金(Pamela Mishkin)和丹尼爾・洛克(Daniel Rock)在研究人工智能對就業的衝擊時指出,美國80%的工作人口中,會發現他們的工作的10%會被當代的人工智能所影響;而五分之一的工作人口,會發現他們的工作的50%會被當代的人工智能所影響。也就是說,在美國1.65億的勞動人口中,1.32億人的工作的十分之一,是可能會被人工智能所替代的;而3300萬美國的勞動人口中,其工作內容的一半,是可能會被人工智能所替代的。這是一個非常驚人的就業衝擊。兩者加起來,就意味著至少4600萬美國人的飯碗,有可能因為人工智能而不保。
人道主義技術中心(Center for Humane Technology)的另一位共同創建者阿扎・拉斯金(Aza Raskin)則透露,Open AI公司的研究者們,甚至在根本不知道ChatGPT4有什麼樣的能力的時候,就把它推向了公眾和社會!
人道主義技術中心(Center for Humane Technology)發布的報告——《人工智能的進退兩難》(The AI Dilemma)中這樣說,「大公司們在像軍備競賽一樣、急切緊迫地推出新的人工智能技術、占領市場。他們的說辭是,這事關技術創新,而不顧潛在的危險。人們必須把證明人工智能的危險的責任放在人工智能的開發者身上,而不是放在普通民眾身上。」「人們假定對人工智能的威脅、有這樣那樣的防護欄,但其實它根本就子虛烏有。」
谷歌的前工程副總裁、「人工智能教父」傑弗裡・辛頓(Geoffrey Hinton)曾經深刻地指出,「我得到的結論是,人們現在開發的人工智能,與我們人類現有的智能完全不同。跟人類現有的生物上的智能不同,AI系統可以分開各自獨立的學習知識,然後它們可以立即的分享這些知識。所以,如果你有一萬個AI聊天機器人在那裡,其中任何一個學了什麼東西,這一萬個機器人馬上自動的全部都知道和掌握了。所以它們可以比人類知道的多的多。」
複雜系統研究中心(Center for Complex Systems Research)和視覺和學習集團(Vision and Learning Group)的創始人史蒂夫・奧莫汗卓(Steve Omohundro)是許多機器學習(machine learning)和機器視覺(machine vision)突破性研究的發明者,他指出,人們已經認識到,所有的先進的AI系統都展示出許多基本的「本能」或者「驅動力」(basic drives)。一個最根本的現實是,人們必須去理解這些「本能」或者「驅動力」是什麼,然後才能去研發這些技術、使其造福人類。
如上種種,我們可以看到人工智能的危險、危害、甚至威脅了。那麼,這個所謂的「人工智能」,人工的智能,它從本質上來說,究竟意味著什麼呢?人們對待這一現象和科技的新發明,該如何看待?正如複雜系統研究中心(Center for Complex Systems Research)和視覺和學習集團(Vision and Learning Group)的創始人史蒂夫・奧莫汗卓(Steve Omohundro)指出的那樣,所有的先進的AI系統都展示出許多基本的「本能」或者「驅動力」(basic drives)。這些本能和驅動力,究竟從本質上來說是什麼?究竟是誰在「驅動」這些機器、是什麼樣的生命在「驅動」這些機器呢?!
在筆者看來,人類本身,被稱為地球上有智慧的生命(intelligent life),就是有智慧、智能,是高於動物和植物的生命。至於人類的智慧或者智能(intelligence)究竟是從哪裡來的,那當然仁者見仁、智者見智。信神的人和無神論的人,也各執一詞。相信神佛的人,當然認為人的智慧、能力、一切的一切,乃至世間萬事萬物,都是神佛創造的,都是創世主創造的。如果是這樣,人工智能的本身,它們是在做什麼呢?它們是在集古今中外人類全部的知識、能力和智慧,試圖在創造一個由人類智慧構成的世界,可能是虛擬的世界,但都是在電腦和網絡上的世界。
電腦的濫觴和計算機的普及,使得人類世界如今在幾乎所有的方面,所有的領域,都高度依賴於電腦,從尖端的導彈和宇宙飛船,到人類衣食住行的方方面面,到農民種地、工人生產、軍人打仗、老師教書、再到交通和通訊,人們無一不能離開電腦。電腦和計算機網絡相結合,已經掌控了我們人類的世界。如今,一個勞什子的東西,被稱為「人工智能」的,又藉由電腦和網絡,來製造一個新的世界,一個可以替代神的角色,試圖最終吸引人類、誘惑人類、操控人類、左右人類、乃至威脅人類的生存,這就是筆者看到的、似乎是人工智能的終極目的和未來。
(謝田博士是美國南卡羅萊納大學艾肯商學院的市場學教授暨約翰奧林棕櫚講席教授)
本文只代表作者的觀點和陳述。
(轉自大紀元/責任編輯:劉明湘)