掘金&扣子(coze.cn)已上线两期 Bot 构建活动啦!相信很多掘友从中积累了不少经验,却仍有无尽的深层工具奥秘待我们一同探索:如何创建并运用知识库?(https://www.coze.c...
IBM探讨人工智能伦理治理框架应该是什么样子?
尽管实现生成式人工智能的竞赛愈演愈烈,但围绕该技术的伦理争论也在持续升温。而且赌注越来越高。根据 Gartner 的说法,“组织有责任确保他们开发、部署或使用的人工智能项目不会产生负面的道德后果。”与...
专家观点 | 我国人工智能法应如何制定
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063原标题:我们需要一部怎样的人工智能法文 | 中国政法大学数据法治研究院教授、联合国人工智能高层顾问机构中方成员、中国人工智...
AI 蠕虫来袭
随着OpenAI的ChatGPT以及Google的Gemini等生成式人工智能系统的不断进步,它们开始被投入到越来越多的工作使用中。初创公司以及科技企业正利用这些系统来创建能够自动执行日常事务的AI代...
【论文速读】| CovRL:基于覆盖引导的强化学习对LLM基础变异进行JavaScript引擎模糊测试
本次分享论文为:CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement Learning for LLM-based ...
AI Safety与AI Security:探索共同点和差异(下)
点击跳转上篇上篇(详细)中,我们探讨了人工智能生态系统的完整性、保密性、可用性以及关于AI safety的一些热门话题,接下来我们将继续探讨AI Safety究竟是什么?以及AI Safety与AI ...
【好文推荐】生成式伪造语音安全问题与解决方案
摘要:生成式人工智能算法的发展使得生成式伪造语音更加自然流畅,人类听力难以分辨真伪.本文首先分析了生成式伪造语音不当滥用对社会造成的一系列威胁,如电信诈骗更加泛滥、语音应用程序安全性下降、司法鉴定公正...
复旦白泽为你解读《生成式人工智能服务安全基本要求》
随着 OpenAI ChatGPT、Sora 为代表的 AI 大模型正加速发展,复旦白泽高度关注 AI 大模型安全,持续自研大模型靶向安全评测技术,生成海量高危诱导问题,高效挖掘 AI 大模...
重磅发布 | 开源大语言模型安全性测评报告
为深入学习贯彻全国两会精神,落实《工业和信息化部等十六部门关于促进数据安全产业发展的指导意见》《生成式人工智能服务管理暂行办法》以及“人工智能+”行动等要求,加快数据安全技术与人工智能新兴技术的交叉融...
AI PC之NPU漫谈
点击蓝字 关注我们AI PC之NPU漫谈前言AI的发展日新月异,形成了一个时代的强大潮流。然而,真正推动这一势头的,是AI算力的持续扩张,特别是向边缘计算设备的扩张。AI已经不再只是数据中心的专属领域...
大语言模型应用程序十大风险
内容摘要《OWASP 大语言模型应用程序十大风险》项目旨在向开发人员、设计人员、架构师、管理人员和组织介绍部署和管理大语言模型(LLM)应用程序时的潜在安全风险。该项目主要基于漏洞的潜在影响,可利用性...
[当人工智能遇上安全] 13.威胁情报实体识别 (3)利用keras构建CNN-BiLSTM-ATT-CRF实体识别模型
《当人工智能遇上安全》系列博客将详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、对抗样本等等。只想更好地帮助初学者,更加成体系的分享新知识。该系列文章...
72