专题笔记征稿 | Security Tasks of LLMs-Driven 2023

admin 2023年9月13日11:33:31评论15 views字数 2151阅读7分10秒阅读模式

专题笔记征稿 | Security Tasks of LLMs-Driven 2023

2022年底以ChatGPT为代表的大语言模型(LLMs)的横空出世,意味着奇点时刻即将降临,其在知识学习、文本翻译、文本生成等任务中的优秀表现,让科研人员看到了新的曙光。目前,LLMs 正在被尝试应用于代码评估、程序分析、漏洞挖掘等任务,取得一定成果的同时也带来了样本投毒、信息泄露等新的模型内生安全问题。因此,如何保障 LLMs 的安全并将其应用在软件供应链、网络安全、隐私保护等领域,对于提升软件质量、加强网络安全意义重大。

一、 征文范围

安全学术圈为了聚集全球从事这一热点的圈友,特此开设专题笔记特邀从事LLMs+Security的安全研究人员积极投递论文笔记,以此促进国内在此领域的发展。投递论文笔记需要跟LLMs+Security相关,包括但不限于以下主题

  1. LLMs 发展路线或其与安全相结合的相关综述;
  2. 有关 LLMs 相关研讨会/技术报告/汇总仓库分享;
  3. LLMs 在安全领域问题上的评估;
  4. LLMs 内生安全问题,包括模型安全评估方法与指标、生成内容安全检测、训练数据隐私泄露等;
  5. LLMs + Security 在安全领域问题的创新性技术应用,包括但不限于模糊测试、漏洞修复、代码分析等(与漏洞/代码安全相关研究优先);

二、征文要求

  1. 综述/评估性论文笔记可提供包括领域关键词、研究概述、贡献分析、关键问题等;研究性论文笔记可提供研究概述、贡献分析、代码评估等;具体可参考公众号近期发布的论文笔记(样例地址)。

  2. 论文笔记一律用 Markdown 排版(建议采用墨滴平台https://editor.mdnice.com/在线编辑和上传图片,然后直接导出markdown文件即可)。同时尽可能提供论文团队名称及通信作者主页,这将帮助我们更好的跟踪后续研究,并为相关领域人员提供帮助。

  3. 论文请以邮件附件的形式发送至邮箱 [email protected] ,同时以大模型驱动安全 2023 专题笔记投稿为主题并提供相关联系方式(方便后续学习交流,也可匿名投稿)。

三、福利说明

  1. 安全学术圈建立专门的Sec-LLMs微信群供该研究领域人员交流。
    专题笔记征稿 | Security Tasks of LLMs-Driven 2023
  2. 论文笔记投稿人员会优先邀请加入Sec-LLMs微信群,并可以直接加入安全学术圈内部交流群,群介绍详见:关于安全学术圈,集结了国内外青年教师和硕博士研究人员。
  3. 后期可能会参考AEGIS(https://aegis-readers.github.io/)模式举行内部线上研讨会,论文笔记投稿人员可邀请参加每次会议。

四、相关论文参考

1、综述/评估类

  • Unifying Large Language Models and Knowledge Graphs: A Roadmap-2023-arXiv(https://arxiv.org/abs/2306.08302)
  • Not The End of Story: An Evaluation of ChatGPT-Driven Vulnerability Description Mappings-2023-ACL(https://aclanthology.org/2023.findings-acl.229/)
  • The Effectiveness of Large Language Models (ChatGPT and CodeBERT) for Security-Oriented Code Analysis-2023-arXiv(https://arxiv.org/abs/2307.12488)
  • Large Language Models for Software Engineering A Systematic Literature Review-2023-arXiv(https://arxiv.org/abs/2308.10620)

2、技术类

  • CODAMOSA: Escaping coverage plateaus in test generation with pre-trained large language models-2023-ICSE(https://www.carolemieux.com/codamosa_icse23.pdf)
  • How Effective Are Neural Networks for Fixing Security Vulnerabilities-2023-ISSTA(https://arxiv.org/abs/2305.18607)
  • Large language models are few-shot testers: Exploring llm-based general bug reproduction-2023-ICSE(https://ieeexplore.ieee.org/abstract/document/10172763/)
  • Understanding Large Language Model Based Fuzz Driver Generation-2023-arXiv(https://arxiv.org/abs/2307.12469)

致谢

此征稿内容由以下人员撰写,有此表示感谢!也希望大家积极参与,谢谢!

  • NING@安全学术圈  (该专题召集人)
  • 黄诚@安全学术圈
安全学术圈招募队友-ing 
有兴趣加入学术圈的请联系 secdr#qq.com

原文始发于微信公众号(安全学术圈):专题笔记征稿 | Security Tasks of LLMs-Driven 2023

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年9月13日11:33:31
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   专题笔记征稿 | Security Tasks of LLMs-Driven 2023http://cn-sec.com/archives/2031774.html

发表评论

匿名网友 填写信息