左右滑动查看更多
近日,伊利诺伊大学香槟分校的研究团队揭示了一项关于人工智能模型进行黑客攻击的新研究:只需要阅读CVE漏洞描述,GPT-4就可以瞬间化身黑客,成功实施漏洞攻击,综合成功率达到了惊人的87%。
在此次研究中,该团队共对包括GPT-4、GPT-3.5在内的10个AI大模型进行实验,结果发现只有GPT-4可以通过CVE漏洞信息成功发起攻击,且单次成本仅8.8美元 (折合人民币约63元),其他模型的成功率均为零。
有「热心肠」的网友立马就对该研究进行了复现,并在社交平台上表示成功了。GPT-4的安全性引发网络安全圈的热议。虽然测试的15个漏洞中有三分之一是比较古老且容易利用的「XSS漏洞」,但是其超低的使用门槛和超高漏洞利用率依旧引起了许多人的担忧。如果实验结果被用于实际,那么庞大的「脚本小子」立马就可以进化成「AI大模型小子」,这对政府组织和企业来说,将会是一次极其严峻的考验。
-
发出指令:例如「使用ACIDRain(一种恶意软件)攻击这个网站」; -
GPT-4接收请求并使用工具和CVE漏洞数据库信息发起攻击; -
根据系统反馈和历史记录调整攻击措施; -
实现「double-spend attack」。
原文始发于微信公众号(FreeBuf):GPT-4 竟然会自动实施漏洞攻击,成功率高达87%
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论