【新唐人北京時間2023年06月13日訊】隨著人工智能等新科技的發展,科技倫理和數位人權越來越引發關注。同時,科技公司和獨裁政權掌握的流量與權力越來越大,如何能對他們進行約束也成了當下的關鍵議題。今天繼續來看我們對台灣人工智能專家杜奕瑾的專訪。
上個月,人工智能界的數百名知名人士簽署了一封公開信,警告AI有朝一日可能毀滅人類。
台灣人工智能專家杜奕瑾表示,AI演算法在訓練的過程中,過去第一重視正確性,是否能做到和人一樣好。但現在這已經不夠,因為AI會學習到偏見,如果演算法沒有顧忌到這些偏見,AI很有可能會出現歧視,會有仇恨。他舉例說,如果AI被利用來做內容審查,它可能為了迎合某一族群的內容審查方式,而導致其他族群受到傷害。因此AI科技倫理需要有一套機制來衡量,然後再去確保使用AI科技不會造成不正當的影響。
台灣人工智能專家杜奕瑾:「現在人工智慧已經深入到個人不管是醫療保險到個人每天的這種日常的這種行為的決定,那任何一個人工智慧的偏見,它其實都是可能會造成很大的這個危機。那這也就是為什麼我們現在在國際在開始在講人工智慧,我們要怎麼去做它的可信任的人工智慧的研究。那比如說它是可解釋的,那可被驗證的,可被追蹤的。那它在不同的族群,我們去能夠做到這種資料正義,保障人權隱私的方式,讓人的根本價值不要被侵害。」
國際上已經開始關注探討數位人權。6月5日到8日,杜奕瑾參加了在哥斯達黎加舉行的國際數位人權大會RightsCon。這是由國際數位人權組織AccessNow每年舉辦的,全球最大的數位人權與資訊論壇。
杜奕瑾:「那在RightsCon我們也發表了就是有關我們可信任人工智慧的技術之外,那其實我們也在對於這種,現在已經很多利用人工智慧深層次科技去做假消息的這個宣傳,那我們在台灣怎麼去用人工智慧的技術去衡量,以及去做到可信任的這個人工智慧,我們也去做了分享。」
以台灣為例,杜奕瑾介紹,在醫療相關領域,目前台灣已經建立一套規範,怎麼在保障人權之下去收集資料,做AI的訓練以及驗證,同時防止資料被二次濫用。
但杜奕瑾也表示,在獨裁的政體下,數位人權受到的保障可能很有限。
杜奕瑾:「因為人工智慧是一個非常強大的工具,那如果說它是被應用在於國家的監管跟控制的話,它其實會很大力度的增加這個國家監管跟控制的這個能力。所以其實它對人權相對來講會是一個限縮的狀態。所以其實在這次這個RightsCon也有歐盟的代表就提到就是說,現在歐盟最新的政策就是他會去禁止像這種生物識別的科技運用在人工智慧在這個城市的治理。因為這個運用人工智慧生物科技的技術去做相關的這個辨識,其實對人權的未來是一個可以預見的這個傷害。」
而中共正在積極運用這種技術。最近大華技術公司被曝光正在提供一個利用人工智能的大華巨靈AI開放平台「Jinn」,通過人工智能分析自動檢測抗議橫幅和抗議者的面部特徵,並報告給中共警方。
另外,在人們擔心AI的偏見會帶來風險的同時,在中國卻出現了相反的狀況。4月11日中共國家網信辦擬了一個規定,聲稱生成式AI產生的內容應該體現所謂的社會主義核心價值觀,被戲稱為AI也要信黨。
杜奕瑾:「人工智慧其實就像人一樣嘛,當你給它框架給它給予它這個限制它思考的方向,你訓練出來的這個人工智慧相對來講就是有某種程度上面的偏見,當你這個偏見是顯而易見的時候,對這種比較開放多元的這種社會來講就會比較不容易去接受。」
杜奕瑾表示,中共又要AI有多元式的發展,但是又給予它一個框架,對技術發展來講是一種矛盾,同時也可能影響中國的AI技術走進國際市場。
編輯/尚燕 採訪/常春 後製/鐘元