谷歌 DeepMind和多位知名大学的安全研究员团队发现,他们可以从ChatGPT这类大语言模型中提取出大量敏感的训练数据,其中包括电话号码、电子邮件和实际地址等。
编辑:左右里
资讯来源:arxiv.org
转载请注明出处和本文链接
白名单(Whitelist)
实体列表,这些实体被认为是可信任的,并被授予访问权限或特权。
﹀
球分享
球点赞
球在看
原文始发于微信公众号(看雪学苑):ChatGPT新Bug,让AI复读即可曝出敏感数据
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论