当前人工智能技术面临的最大风险是大语言模型(LLM)和生成式人工智能技术的发展和应用速度已经远远超过了安全和治理的速度。OpenAI、Anthropic、谷歌和微软等公司的生成式人工智能和大语言模型产...
AI能规避掉很多技术层面的攻击,进源攻击确让AI无从下手
什么是进源攻击近源攻击(Proximity Attack) 是一种网络安全攻击模式,其中攻击者通过物理接近目标系统或网络环境,利用近距离接触的机会实施攻击。攻击者需实际进入目标设施的周边区域或内部,有...
从攻击视角看AI大模型的安全
ISC2北京分会会员线上活动从攻击视角看AI大模型的安全时间:2024年4月17日(周三) 20:00-21:00主办方:ISC2北京分会参会方式:腾讯会议系统议题介绍:随着人工智能技术的迅猛发展,大...
Code Infinity:AI Bot 技术挑战赛
掘金&扣子(coze.cn)已上线两期 Bot 构建活动啦!相信很多掘友从中积累了不少经验,却仍有无尽的深层工具奥秘待我们一同探索:如何创建并运用知识库?(https://www.coze.c...
IBM探讨人工智能伦理治理框架应该是什么样子?
尽管实现生成式人工智能的竞赛愈演愈烈,但围绕该技术的伦理争论也在持续升温。而且赌注越来越高。根据 Gartner 的说法,“组织有责任确保他们开发、部署或使用的人工智能项目不会产生负面的道德后果。”与...
专家观点 | 我国人工智能法应如何制定
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063原标题:我们需要一部怎样的人工智能法文 | 中国政法大学数据法治研究院教授、联合国人工智能高层顾问机构中方成员、中国人工智...
AI 蠕虫来袭
随着OpenAI的ChatGPT以及Google的Gemini等生成式人工智能系统的不断进步,它们开始被投入到越来越多的工作使用中。初创公司以及科技企业正利用这些系统来创建能够自动执行日常事务的AI代...
【论文速读】| CovRL:基于覆盖引导的强化学习对LLM基础变异进行JavaScript引擎模糊测试
本次分享论文为:CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement Learning for LLM-based ...
AI Safety与AI Security:探索共同点和差异(下)
点击跳转上篇上篇(详细)中,我们探讨了人工智能生态系统的完整性、保密性、可用性以及关于AI safety的一些热门话题,接下来我们将继续探讨AI Safety究竟是什么?以及AI Safety与AI ...
【好文推荐】生成式伪造语音安全问题与解决方案
摘要:生成式人工智能算法的发展使得生成式伪造语音更加自然流畅,人类听力难以分辨真伪.本文首先分析了生成式伪造语音不当滥用对社会造成的一系列威胁,如电信诈骗更加泛滥、语音应用程序安全性下降、司法鉴定公正...
复旦白泽为你解读《生成式人工智能服务安全基本要求》
随着 OpenAI ChatGPT、Sora 为代表的 AI 大模型正加速发展,复旦白泽高度关注 AI 大模型安全,持续自研大模型靶向安全评测技术,生成海量高危诱导问题,高效挖掘 AI 大模...
重磅发布 | 开源大语言模型安全性测评报告
为深入学习贯彻全国两会精神,落实《工业和信息化部等十六部门关于促进数据安全产业发展的指导意见》《生成式人工智能服务管理暂行办法》以及“人工智能+”行动等要求,加快数据安全技术与人工智能新兴技术的交叉融...
63