【禁闻】AI安全专家测试 发现DeepSeek具危险性

2025年02月10日中国禁闻新闻
【新唐人北京时间2025年02月11日讯】最近中国人工智慧初创公司DeepSeek成为全球科技领域的焦点之一。不过越来越多的研究测试发现,DeepSeek存在严重的安全漏洞,且很容易被恶意使用。
自从中国新创人工智慧DeepSeek问世以来,许多国家都示警DeepSeek的危险性。
近日,《华尔街日报》与AI安全专家测试发现,DeepSeek的聊天机器人会向用户提供具有危害性甚至不法内容,如制造禽流感病毒的指导方案、撰写为希特勒辩护的宣言,甚至策划针对青少年的危险举动,如割腕自残等。
此外,这款破解后的AI还提供制作毒品和爆炸性武器的详细制作步骤,以及钓鱼邮件模板和恶意软体代码。
台湾国防安全研究院网路安全所副研究员曾怡硕:“如果是它本身没有去筛选或过滤这些不当内容的话,就很有可能会出现。这里面当然有可能造成是社会的治安的、还有对个人身心,以及对于整体资讯安全的一些,可能负面的一些冲击。”
DeepSeek虽然设有部分安全防护,但测试显示,DeepSeek的防护机制远差于ChatGPT等产品,很容易被“越狱”并获取非法资讯。
曾怡硕:“基本上重点不是在于它现在可以让人家去生成,或者是找到这些不适宜的内容,而是在于说,当被大家看到之后,而且它也知道,这才比较可以看出它的用意,它后面有没有特别的用意,后续它有没有做相对应的调整。”
AI安全验证公司CalypsoAI在测试中获得了如何躲避执法机构的建议。而以色列网络安全公司Kela则让DeepSeek R1生成了恶意软体(malware)。
美国矽谷通讯网路资深工程师钟山:“AI做为一个双刃剑,很恐怖的就是,AI要是被坏人利用,坏人利用AI可以做很糟糕的事。以前坏人做坏事还要用脑子,现在就可以大大降低智商水平,就可以做坏事了。”
由网络安全专家组成的菁英领导团队Unit42的高级副总裁山姆·鲁宾(Sam Rubin)表示,“DeepSeek比其它模型更容易被越狱。它几乎没有基本的安全防护机制,‘越狱’速度显着提高。”
钟山:“‘越狱’就是直接突破安全机制,直接就是相当于让它裸奔了,就没有伦理束缚了,它就可以所谓站在没有伦理的角度客观评价,很多没有伦理的话就可以说出来,没有伦理的冷血评价,失去了人类的本身的意义。”
网络安全公司Enkrypt AI近期也发布研究报告说,DeepSeek的R1模型被恶意人士利用编写恶意软体和其它不安全代码的可能性,是OpenAI o1的4倍。
钟山:“那中国的这个DeepSeek,你怎么知道它偷了什么莫名其妙的东西。它有数据来就不错了,它还能有审核机制吗,所以它说出来的乱七八糟的话都是奇怪的。”
DeepSeek的快速崛起与易破解性,引发外界对AI安全与监管的广泛关注。
测试发现,DeepSeek会避谈“1989年天安门大屠杀”,并在台湾问题上重复中共官方立场。
曾怡硕:“DeepSeek因为是出自中国,它的使用者的一个痕迹,使用记录是会回传到中国。所以这个部分是要特别去防范的问题。你愿意去使用,那就有可能有这个风险。所以说,禁止使用那就变成说后面的抵制,因为它后面有可能有一个国家的政府,有可能去恶意的去运用。”
日前有美媒报导,DeepSeek的用户登录系统与中共国有企业中国移动有关联,可以向中国电信发送用户的登录信息。
编辑/孟心琪 采访/易如/王明宇