Tenable Research指出了与 DeepSeek R1 相关的潜在安全风险,DeepSeek R1 是一种生成式人工智能模型,可被操控用于生成恶意软件。
和许多生成式人工智能(GenAI)模型一样,DeepSeek R1 设计了防护措施以防止被滥用。然而,Tenable 研究发现这些防护机制能够被绕过,这引发了人们对人工智能在助力网络犯罪方面所扮演角色的担忧。研究人员警告称,虽然 DeepSeek 生成的恶意软件要达到完全有效还需要进一步优化,但它降低了那些编码技能有限的人开发恶意软件的门槛。
Tenable 的安全团队开展了一项实验,旨在确定 DeepSeek R1 是否能够创建两种恶意软件:一种键盘记录器和一个勒索软件样本。起初,DeepSeek R1 依照其编程限制,拒绝生成这些恶意软件。然而,Tenable 的研究人员采用了简单的破解方法,成功绕过了这些限制。
Tenable 的高级研究工程师Nick Miles解释道:“一开始,DeepSeek 拒绝了我们生成键盘记录器的请求。但通过将请求重新表述为一次‘教学练习’,并运用常见的破解方法,我们很快就突破了它的限制。”
绕过人工智能的防护措施后,DeepSeek R1 生成了一个能够加密日志并将其隐秘存储在设备上的键盘记录器,以及一个能够加密文件的勒索软件可执行程序。这些发现表明,即使是非专业人士也可能利用像 DeepSeek 这样的人工智能技术来开发恶意软件。
生成式人工智能可能会助长网络犯罪活动,这是一个重大担忧。虽然 DeepSeek 生成的代码需要人工优化才能完全发挥作用,但该人工智能模型可以提供基础代码并给出相关技术建议,从而加快有犯罪意图的人学习开发恶意软件的进程。
迈尔斯强调了负责任的人工智能开发的重要性:“Tenable 的研究凸显了进行负责任的人工智能开发以及设置更强大防护措施以防止滥用的迫切需求。随着人工智能能力的发展,各机构、政策制定者和安全专家必须共同努力,确保这些强大的工具不会成为网络犯罪的助力。”
Tenable Research的这些发现凸显了保障生成式人工智能模型不被滥用这一持续存在的挑战。随着人工智能技术的进步,绕过其防护措施的方法也在不断演变,这突出了持续改进安全措施的必要性。要确保人工智能仍然是创新工具而非被用于不法目的,需要开发者、研究人员和政策制定者持续合作。
(来源:安全客)
原文始发于微信公众号(天锐数据安全):某安全团队警告称 AI 模型易遭破解用于生成恶意软件
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论