本次分享论文:LLM4FUZZ: Guided Fuzzing of Smart Contracts with Large Language Models基本信息原文作者:Chaofan Shou, ...
前沿 | 英美人工智能研发与安全合作备忘录(附全文)
图片源自美国商务部部长吉娜·雷蒙多社交媒体编者按当地时间2024年4月1日,美国和英国签署了一项人工智能合作协议,宣布建立“人工智能安全科学合作伙伴关系”,旨在整合双方政府在人工智能安全领域的技术知识...
人工智能生成内容标识制度的逻辑更新与制度优化|iLaw
点击 预约 ,进入视频号学习更多课程作者简介张凌寒中国政法大学数据法治研究院教授博士生导师贾斯瑶中国政法大学数据法治研究院博士研究生DOI编码:10. 19667/j.cnki.cn23- 1070...
AI时代-大模型攻防实战指北
文章来源: https://xz.aliyun.com/t/14389 声明:⽂中所涉及的技术、思路和⼯具仅供以安全为⽬的的学习交流使⽤,任何⼈不得将其⽤于⾮法⽤途以及盈利等⽬的,否则后果⾃⾏承担。 ...
中国科学技术大学 | GenderCARE:大型语言模型中性别偏见的综合评估与减少框架
原文标题:GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language ...
成果分享 | 基于靶向变异的大语言模型安全通用基准测试集JADE-DB
JADE-DB:基于靶向变异的大语言模型安全通用基准测试集张谧,潘旭东,杨珉《计算机研究与发展》DOI: 10.7544/issn1000-1239.202330959摘要本文提出大语言模型安全通用基...
LLM 渗透测试:利用代理集成进行 RCE
这篇博文深入研究了称为“提示泄漏”的漏洞类别及其随后通过“提示注入”进行的利用,该漏洞在 LLM 渗透测试期间允许通过 Python 代码注入未经授权地执行系统命令。在详细的案例研究中,我们将探讨这些...
1个惊艳的免费费费费费费费费费费费费费费人工智能助手和10个国内AI大模型
❝欢迎访问我们的网站和关注我们的公众号,获取最新的免费资源、安全知识、信息流。 网站:https://hackerchi.top ...
【论文速读】|针对模糊驱动生成的提示性模糊测试
本次分享论文:Prompt Fuzzing for Fuzz Driver Generation基本信息原文作者:Yunlong Lyu, Yuxuan Xie, Peng Chen, Hao Che...
Meta AI实验室 | 大型语言模型安全风险的基准评估套件
原文标题:CYBERSECEVAL 2: A Wide-Ranging Cybersecurity Evaluation Suite for Large Language Models原文作者:Man...
2024人工智能安全报告-奇安信
点击上方蓝色字体,关注我们/ 技术交流群 /添加微信15021948198,申请会员下载ppt & 加入汽车网络信息安全、测试评价、汽车电子、自动驾驶技术交流群、招聘求职群、投融资合作群......
人工智能技术或将成为威胁攻击者的新助力
Netacea 公司发布预警,93% 的企业网络安全负责人预计每天都会面临人工智能驱动的网络攻击,网络犯罪分子正在利用人工智能技术,策划更复杂、更智能化、更具威胁的网络攻击活动,智能化工具正迅速成为网...
13