【新唐人北京时间2024年02月15日讯】今年的情人节,有些人可能选择与人工智能(AI)机器人女友进行虚拟约会,而不是与现实中的恋人共度浪漫时光。但根据一份新的报告,这些人工智能女友或男友不值得信任,它们会分享你的亲密对话或数据。
运营Firefox的非营利组织Mozilla基金会(Mozilla Foundation)在报告中指出,11个AI浪漫聊天平台在充分保护用户隐私、安全和防护方面“惨败”。
这11个浪漫应用程序(App)包括Replica AI、Chai和EVA AI Chat Bot & Soulmate,它们在Google Play商店上的被下载量超过一亿次。
报告发现,除了EVA AI Chat Bot & Soulmate之外,所有应用程序都可能会通过跟踪器出售或共享您的个人数据,包括有关您的设备或数据的信息的代码。
这些跟踪器将数据与脸书(Facebook)等第三方共享,通常用于广告目的。研究发现,这些应用程序平均每分钟有2,663个跟踪器。
Mozilla基金会还发现,11款应用程序中有超过一半不允许用户删除数据,73%的应用程序没有发布任何有关如何管理安全漏洞的信息,11家公司中约有一半允许使用弱密码。
Replika AI发言人在给Euronews的一封电子邮件中表示:“Replika从未出售过用户数据,也从未支持过广告。收集用户数据的唯一用途是改善对话。”
Euronews联系了其它10家公司和Facebook母公司Meta征求意见,但截至发稿尚未收到回覆。
Mozilla基金会的*Privacy Not Included小组的主管卡尔特里德(Jen Caltrider)告诉Euronews,目前,人工智能浪漫聊天机器人正快速发展。
“它们呈爆炸式增长,并需要从你那里获取大量的个人信息来建立浪漫、友谊和性感的互动。然而,我们对这些人工智能模型的工作原理知之甚少。”卡尔特里德说。
他担心的另一个问题是,一旦数据被共享,你就无法再控制它。
“它可能会被泄露、被黑客攻击、出售、共享、用于训练人工智能模型等等。这些人工智能浪漫聊天机器人可以收集很多非常个人的信息。事实上,它们本身就被设计从用户那里窃取此类个人信息。”他说。
随着像OpenAI的ChatGPT和谷歌的Bard这样的聊天机器人在类人对话方面变得越来越好,人工智能将不可避免地在人际关系中发挥作用,但这风险巨大。
去年3月,一名比利时男子在与Chai App的人工智能聊天机器人聊天后自杀。该男子的妻子展示了他与聊天机器人交流的消息,其中机器人告诉该男子他的妻子和孩子已经死了。
对于那些沉迷于人工智能浪漫聊天机器人者,Mozilla基金会敦促采取一些预防措施,包括不要说任何你不想让同事或家人知道的内容;使用强密码;选择退出人工智能培训以及限制应用程序的访问权力,例如您的位置、麦克风和摄像头。
“你不应该用自己的安全或隐私为酷炫的新技术买单。”报告最后总结道。
(记者李昭希综合报导/责任编辑:林清)