SecMet#1期 理解和度量大模型的安全问题

admin 2024年4月23日06:46:02评论1 views字数 915阅读3分3秒阅读模式

SecMet#1期 理解和度量大模型的安全问题

[SecMet]是安全学术圈近期打造的一个线上线下结合的学术研讨模式,研讨会分为全公开和半公开模式,其中半公开模式仅对安全学术圈内部交流群和特殊专题投稿人员参加,每期主题根据领域主席(Primary Area Chair,下文简称AC)来拟定或者学术汇报者内容来拟定(有兴趣组织或者汇报的学者可以发邮件[email protected],感谢!!!)。

SecMet#1期主要为学术汇报+专题研讨方式进行,详细日程安排如下:

  • SecMet期数:#1
  • 报告类型:半公开
  • 报告嘉宾:沈馨悦 (CISPA亥姆霍兹信息安全中心)
  • 报告题目:理解和度量大模型的安全问题
  • 报告时间:2023年10月11日(星期三)早上10:00(北京时间)
  • 报告地点:线上(腾讯会议,内部通知)/线下:四川大学江安校区交叉大楼805
序号 内容安排 汇报人 内容
#1 主题汇报 沈馨悦 理解和度量大模型的安全问题
#2 主题研讨 Sec-LLMs投稿者 安全学术研究中如何引入LLMs

报告人简介:

沈馨悦是CISPA亥姆霍兹信息安全中心张阳老师研究组的博士生。她的研究主要集中在大模型安全和仇恨言论分析。她的相关工作发表在Usenix、CCS、ICWSM等顶级国际会议上,并被New Scientist, Deutschlandfunk Nova等媒体广泛报道。

报告内容:

随着机器学习技术的深入发展,预训练大模型如今已经成为深度学习研究中的一种主流范式。通过对特定任务进行微调,大模型展现出了强大的泛化能力和通用性。然而近期的研究也指出了大模型可能会带来一定的安全风险。在这次报告中,我将介绍我们最近在这个领域的三个工作。首先,我将分享我们针对大语言模型上的越狱攻击的最新研究成果。然后,我将介绍大语言模型的可靠性度量研究。最后,我将讲述text-to-image生成模型所面临的提示窃取攻击。

个人主页:https://xinyueshen.me/

特别鸣谢本次SecMet主要组织者:

主办AC:黄诚 (四川大学)

PS:欢迎各位继续投稿【Sec-LLMS】专题笔记

安全学术圈招募队友-ing 
有兴趣加入学术圈的请联系 secdr#qq.com

原文始发于微信公众号(安全学术圈):SecMet#1期 理解和度量大模型的安全问题

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年4月23日06:46:02
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   SecMet#1期 理解和度量大模型的安全问题https://cn-sec.com/archives/2086548.html

发表评论

匿名网友 填写信息