浅谈ChatGPT|大语言模型安全

admin 2023年5月16日08:10:41评论107 views字数 2637阅读8分47秒阅读模式
浅谈ChatGPT|大语言模型安全

2023

大语言模型安全

ChatGPT

大语言模型

浅谈ChatGPT|大语言模型安全
浅谈ChatGPT|大语言模型安全

最近ChatGPT带来的热潮,人工智能产品迎来了一个爆发期,大语言模型(Large Language Model)也越来越受到人们的关注。以ChatGPT为代表的大语言模型如OpenAI开发的GPT系列(如GPT-3、GPT-4等)、百度开发的文心一言、阿里的通义千问以及华为的盘古大模型等,都陆续地发布和应用。

浅谈ChatGPT|大语言模型安全


浅谈ChatGPT|大语言模型安全

01

什么是大语言模型呢?

浅谈ChatGPT|大语言模型安全

大语言模型就是指基于深度学习的自然语言处理模型,能够自动学习语言的规则和结构,并生成具有正确语法和语义的连贯性的文本。

大语言模型的优势在于它们可以利用大量的文本数据来捕捉语言的复杂性和多样性,从而提高模型的泛化能力和表达能力。在使用上,人们只需输入问题或描述,就可以立刻获得AI基于庞大数据库得出的答案。使用的门槛更低、精度更高、用户体验更好。由于生成的内容和人产出的内容非常接近,甚至质量更高,所以ChatGPT(基于大语言模型的聊天机器人)一经推出,迅速引发了各行各业以及庞大C段消费群体的大量关注和广泛使用,完成了发布60天内月活破亿的传奇!

浅谈ChatGPT|大语言模型安全

随着大语言模型的爆火,其存在巨大的潜力和应用价值,大家也逐渐认识到在带来便利性的同时,也带来了不可忽视的安全隐患,尤其针对个人信息保护方面的挑战和风险。

比如:

  • 三星员工将企业机密信息上传至ChatGPT导致的数据泄露事件

  • ChatGPT虚假指控一名澳大利亚的市长胡德曾因贿赂入狱服刑的诬陷事件;

  • ChatGPT泄露部分ChatGPT Plus订阅者的个人信息的数据泄露事件(违反GDPR)。

可以肯定的是,AI是时代发展潮流,任何一个国家、行业都不可能逆潮流而行。但针对AI技术的监管确实是一个大问题,需要各方的共同努力。全球各地政府、机构也开始重视起来了,发布了一系列的举措,如下图:

浅谈ChatGPT|大语言模型安全
浅谈ChatGPT|大语言模型安全


02

大语言模型可能存在哪些风险点呢?

应该怎么去规避这些风险呢?

浅谈ChatGPT|大语言模型安全
浅谈ChatGPT|大语言模型安全

大语言模型从开发到应用主要分为四个核心阶段:

浅谈ChatGPT|大语言模型安全

数据采集和预处理阶段

该阶段需要收集大量的文本数据,并对数据进行预处理和清洗,以便于模型的训练和应用。大语言模型的训练数据通常来自于互联网的的公开数据,这些数据可能包含一些用户的个人信息:姓名、年龄、职业、兴趣爱好、社交关系等。

这些信息也许会被大语言模型学习和记忆,如果训练数据集没有经过充分的清洗和脱敏,那么在后续的应用中存在泄露的可能。比如:谷歌的Carlini等人指出大语言模型在生成文本时可能会暴露出一些用户的真实身份或隐私信息等。

模型训练阶段

该阶段需要选择合适的模型架构,对之前收集和预处理的数据进行训练,使模型能够学习到语言的规律和特征。在这个过程中需要对数据进行收集、存储、分析和处理,可能会侵犯用户个人信息的权利,比如:知情权、选择权等等。

一方面,没有完善的监督机制确保数据使用方遵守相关的伦理规范及法律法规;另一方面,用户也没有意识和能力来保护自己的个人信息,用户可能根本不知道自己的数据实际被用于什么目的,也无法控制数据被谁使用或共享。

模型调整和优化阶段

该阶段是在训练完成之后,使用测试集对模型进行验证和评估,并进行调优。在这一阶段,模型错误反馈修复得不及时、测试验证数据更新不及时等等,都会对模型的准确性产生很大影响。

模型部署和应用阶段

该阶段是在模型训练、调优完成后,将模型应用到实际场景中去,并对模型进行持续监测和更新,以保证模型的性能和准确性。在这一阶段可能带来以下问题:


  1. 模型滥用和伦理问题。大语言模型在应用场景中会对用户个人信息进行分析、推荐、预测,这些操作可能会带来歧视、偏见、诱导等问题。用户可能没有足够的知识和能力来判断大语言模型输出结果的可靠性和合理性,也没有有效的途径和机制来纠正或申诉大语言模型的错误或不公正的决策。

  2. 用户聊天数据泄露的风险。大语言模型在与用户进行交互时,会记住上下文的内容,以便进行连贯和逻辑的对话。这就意味着用户的聊天记录会被模型存储或缓存起来,作为推理或微调的输入。如果这些数据没有得到有效的保护和删除,那么它们可能会被其他用户或攻击者通过模型接口套取出来。

  3. 模型结构和权重被窃取的风险。训练好的大语言模型是模型厂商的核心资产,设计和训练一个优秀的模型需要大量的专家人力、数据资源、算力投入和时间成本。因此,模型厂商需要防止模型结构和权重被不法分子窃取或复制。虽然大部分AI模型都会开源,但是具备商业竞争力的模型(结构、权重)不会轻易开源。在部署和使用过程中,模型可能会面临多种攻击手段,如内存读取、网络截获、逆向工程等,这些都是需要注意防护的地方。

浅谈ChatGPT|大语言模型安全

03

总结


浅谈ChatGPT|大语言模型安全

总之,数据的使用贯穿大语言模型的整个生命周期,所以模型的机密性以及用户的隐私数据保护问题显得尤为重要。

为了更好地解决这些问题,模型开发厂商以及我们用户侧都需要采取一系列的安全和隐私保护措施,比如:

1

加强数据安全与隐私保护

加强对训练数据的保护,对训练数据集进行清洗和脱敏,去除或隐藏敏感/隐私信息,对用户聊天数据进行加密和定期删除,防止被泄露或滥用;

2

消除偏见与歧视

在训练大语言模型时,加强模型鲁棒性,尽可能使用多样化、平衡的数据集,避免模型学习到偏见和歧视;对模型生成的内容进行审核和过滤,防止产生不良或有害的内容;对模型使用的场景和目的进行限制和规范,防止出现滥用或伦理问题。

3

保护大语言模型安全

对模型结构和权重进行加密和混淆,防止被窃取或复制;对大语言模型的开发及部署进行代码审查、安全测试等,避免被黑客攻击。

大语言模型的安全问题需要引起人们的高度重视,其作为一种不断发展的新技术,对人类社会的影响也是逐渐显现的,我们需要将发展带来的风险在发展中解决,主动解决各方的安全焦虑,而不是说刻舟求剑,把在技术或产品过渡期遇到的问题变成探索新技术的阻碍。

浅谈ChatGPT|大语言模型安全
浅谈ChatGPT|大语言模型安全


往期精彩合集

●Raycast携ChatGPT升级个性化的高效工作环境

●【重大福利在文末↓↓↓】CVE-2022-21198 Intel SMM 漏洞分析

●物联网安全之FirmAE固件模拟仿真

●如何保障服务器安全

●使用frida辅助分析iOS App加密算法

●联想的产品安全

●通过Tor + Proxychains/Proxifier 来尽可能隐藏入侵痕迹

●Web安全开发实战(一)

●一个赏金3000美元的一键账号接管漏洞分析

●CVE-2023-24055

CSL

浅谈ChatGPT|大语言模型安全

联想GIC全球安全实验室(中国)

[email protected]

原文始发于微信公众号(联想全球安全实验室):浅谈ChatGPT|大语言模型安全

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年5月16日08:10:41
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   浅谈ChatGPT|大语言模型安全https://cn-sec.com/archives/1710744.html

发表评论

匿名网友 填写信息