近日,一名俄罗斯黑客在黑客交易平台“BreachForums”上挂出了2000万个OpenAI ChatGPT账户的登录凭证待售,引发极大关注与网络安全风险担忧。
登录凭证泄漏问题广泛存在
知道创宇暗网监测系统发现,国外大模型登录凭证泄漏问题远超国内。其中,ChatGPT 泄漏情况最为严峻,Nemotron 次之。国内大模型方面,文心一言用户凭证泄露数量居首,DeepSeek、Kimi、秘塔AI搜索依次紧随其后。
国外大模型凭借先发优势,发布时间较早,积累了庞大的用户群体。以 ChatGPT 为例,自 2022 年推出后,迅速吸引了全球范围内的广大用户。庞大的用户基数直接导致登录凭证泄漏的潜在风险大幅增加。相比之下,国内大模型虽发展迅速,但市场成熟度和用户规模仍与国外存在差距。
然而,随着以 DeepSeek 为代表的国内大模型在市场中强势“出圈”,国产大模型正驶入加速发展快车道。咨询机构Omdia发布预测,未来五年中国生成式AI的市场规模将增长5.5倍,到2029年将达到98亿美元。
用户数量的持续增长,以及应用场景向金融、医疗、政务等关键领域发展,使得包括用户登录凭证在内的安全问题的重要性愈发凸显。这不仅关乎用户个人隐私,更关系到国产大模型的长远发展与市场信任。
用户登录凭证一旦泄露,就如同打开了“潘多拉魔盒”,攻击者可借此渗透至支付系统、社交图谱乃至训练数据仓库,引发一系列难以预估的严重安全风险。
1
隐私泄漏风险
大模型用户登录凭证暴露可能导致个人信息、使用记录、与AI交互的医疗记录、财务数据等内容等敏感数据被非法获取。这不仅影响个人隐私,如果用户在多个平台上使用相同的密码,还可能对用户的其他在线账户安全构成威胁。
2
数据安全风险
-
模型滥用问题:黑客通过泄漏的账户可以进行自动化攻击,批量获取用户的对话记录、行为数据等,甚至可能对一些公司或组织的敏感信息造成威胁。此外,泄露事件可能被用于进一步的社交工程攻击或身份盗窃。
-
训练数据污染:通过操控用户账户输入误导性内容,干扰大模型后续训练,引发“数据中毒”。
3
平台声誉与信任问题
对于OpenAI等大模型公司而言,数据泄漏事件不仅直接损害用户信任,也可能在法律和监管方面面临巨大的压力。用户对平台的信任度下降,可能导致用户流失以及平台声誉受损。
随着DeepSeek等国内大型模型在市场中崭露头角,国内大模型迎来了发展的加速期。然而,伴随其快速发展,各类针对性的网络攻击也接踵而至,安全形势愈发严峻。除了用户登录凭证泄漏问题,大模型在应用场景方面也面临着层出不穷的新型攻击威胁。
创宇安全智脑威胁情报显示,当前针对大语言模型应用存在多种常见攻击手段。包括提示词攻击、API 攻击、数据投毒攻击、个人可识别信息泄露攻击、模型拒绝服务攻击等。如春节期间备受关注的DeepSeek服务器集群就曾遭受大规模的DDoS恶意请求攻击,严重影响了大模型的正常运行。
与此同时,大模型双向交互也带来了更为复杂的内容违规问题。以“阿水AI”为例,由于其在内容生成过程中未尽内容审核主体责任,违规生成法律法规禁止的内容,最终被监管部门处罚,大模型应用也因此被关停。
在此背景下,构建大模型内生安全体系刻不容缓。这需要在大模型的设计、开发和运行的全流程中,从源头上融入安全机制和策略,确保模型在内容生成、数据处理以及运行环境等方面具备内在的安全性。
知道创宇依托专业的技术团队、海量的数据资源以及全面的测评能力,建立了权威的大模型内生安全评测服务。通过构建大模型整个生命周期的风险管理机制,实现应用安全和内容安全全覆盖,为大模型安全性和合规性提供有力保障。
原文始发于微信公众号(知道创宇):DeepSeek、文心一言、Kimi等存在用户登录凭证泄漏问题
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论