【新唐人北京時間2023年06月16日訊】人工智能的發展帶來便利的同時也引發人們的擔憂,AI的發展到底是福是禍,爭議一直不斷。全球知名公司Alphabet在全球推廣自己的AI聊天機器人Bard,卻警告其內部員工謹慎使用。
據路透社6月15日報導,4位知情人士稱,谷歌母公司Alphabet已建議員工不要將他們的機密資料輸入AI聊天機器人。
這些聊天機器人,包括Bard和OpenAI開發的ChatGPT,使用所謂的生成人工智能與用戶進行對話並回答問題。人類用戶可能會閱讀其聊天記錄。研究人員發現,類似的AI可以重現它在訓練期間吸收的數據,從而造成泄露風險。
一些知情人士說,Alphabet還提醒其工程師,也不要直接使用聊天機器人生成的計算機代碼。該公司表示,Bard可能會主動提出代碼建議。
谷歌還表示,它的目標是對其技術的局限性保持透明。
這些擔憂表明,谷歌希望爲了與ChatGPT競爭而推出的軟件不要造成商業損失。谷歌與ChatGPT開發者OpenAI以及微軟公司的競爭,涉及到數十億美元的投資,以及來自新AI程序的數不清的廣告和雲收入 。
谷歌告訴路透社,全球越來越多的企業已經在AI聊天機器人上設置了護欄,包括三星、亞馬遜和德意志銀行。
據報導,蘋果公司沒有回覆評論請求,但也有類似限制。
Fishbowl網站對大約12,000名受訪者(包括總部位於美國的頂級公司)進行的一項調查表明,截至1月,大約43% 的專業人士正在使用ChatGPT或其它AI工具,而且通常沒有告訴他們的老闆。
據Insider報導,早在2月份,谷歌就告訴測試Bard的員工,在發布前對其進行測試時,不要向其提供內部信息。隨後警告擴展到其代碼建議。
現在,谷歌正在180多個國家或地區以40種語言推出Bard。
谷歌告訴路透社,它已與愛爾蘭數據保護委員會進行了詳細對話,並正在解決監管機構的問題。
對敏感信息的擔憂
AI技術可以起草電子郵件、文件,甚至開發軟件,能提高完成任務的速度。但是,此技術也可能包含虛假信息、敏感數據或《哈利波特》小說中受版權保護的內容段落。6月1日更新的谷歌隱私聲明還說,「不要在與Bard的談話中包含機密或敏感信息。」
一些公司開發了軟件來解決這些問題。例如,保護網站免受網絡攻擊並提供其它雲服務的Cloudflare,正在推出一項功能,讓企業可以標記和限制某些數據向外部流動。
谷歌和微軟還向商業客戶提供對話工具,這些工具價格很高,但可避免將數據吸收到公共AI模型中。Bard和ChatGPT中的默認設置是保存用戶的對話歷史記錄,用戶可以選擇刪除 。
微軟消費者首席營銷官優素福·麥迪 (Yusuf Mehdi)表示,公司不希望員工使用公共聊天機器人工作是「有道理的」。
「公司正在採取有條不紊的保守方法」,麥迪說。
對於是否全面禁止員工將機密信息輸入公共AI程序,包括它自己的程序,微軟拒絕評論。
Cloudflare首席執行官馬修·普林斯 (Matthew Prince)表示,把機密信息輸入聊天機器人,「就像讓一群博士生隨意處理你的所有私人記錄」。
(責任編輯:李酈)