Cyber Security前言今年9月9日至15日,是2024年国家网络安全宣传周。连日来,各地相关部门举办了一系列网络安全宣传普及活动,推动网络安全观念不断深入人心。在数字时代,数字经济的发展离不...
OpenAI’s o1 Model一个需要深思熟虑的模型
图片由Jim Clyde Monge拍摄经过几个月的社交媒体挑逗,并隐藏在代号“Project Strawberry”后面,OpenAI备受期待的新语言模型终于来了——它被称为“o1”。他们没有把它命...
AI+Security系列第3期(三):大模型在网络安全检测及运营场景的探索及应用
近日,由安全极客、Wisemodel 社区、InForSec 网络安全研究国际学术论坛和海升集团联合主办的“AI + Security” 系列第 3 期技术沙龙:“AI 安全智能体,重塑安全团队工作范...
微调之外的大模型应用技术
一、简介在实际应用中,针对任务的具体需求,我们会对大模型进行微调使其能更好适应专门的任务和场景。然而,在具体任务实现时,即使是对较小的大模型(如7B)进行微调也需要大量的算力资源,并且在没有大量的数据...
专题·大模型安全 | 大模型安全风险评估与防御技术综述
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 中国信息通信研究院人工智能研究所 黑一鸣 陈文弢 陈杰 呼娜英近年来,数据量、算力规模和模型参数持续增长,推动了...
深入探讨:人工智能生态系统的安全性
本文 120343字 阅读约需 33分钟文章重点是与企业安全领导者和首席执行官深入探讨如何确保生成式人工智能应用和大语言模型的安全。其中,分析的重点是企业采用人工智能的情况,这是影响安全厂商未来发...
AI生成内容标识新规全文梳理:显式标识与隐式标识
点击上方蓝字关注我们(本文系由自研AI助理应用生成,经律师审校)AI生成合成内容的“标识”被视为生成式人工智能(AIGC)技术安全、可信、合规的重要手段,用以治理恶意内容、侵权内容和深度伪造等顽疾。2...
人工智能大模型框架核弹级漏洞复现
本文由CVES实验室-7resp4ss同学原创一、概述该漏洞源于llama.cpp中的rpc-server功能,评分9.8分在b3561版本前,llama.cpp在分布式推理的场景下存在可以导致rce...
技术分享 | LLM Powered Agents概念与实践
1.agent概念1.1什么是agent?agent(智能体)是能够自主行动、感知环境、做出决策并与其他agent或人类进行交互的计算机程序或实体。1.2LLM:agent的全新大脑agent本身是一...
专题·大模型安全 | 生成式人工智能的内容安全风险与应对策略
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 知道创宇联合创始人兼CTO 杨冀龙正如一枚硬币的两面,生成式人工智能大模型(以下简称“生成式大模型”)在助力内容...
AIGC标识办法及强制国标速览
编者按2024年9月14日,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》(以下简称“《标识办法》”),旨在为人工智能生成合成内容标识提供强制性规范,维护国家安全和社会公共利益,保护公民...
重大的人工智能失败可以从中学到什么
2016年,微软推出了一款名为“Tay”的人工智能聊天机器人,旨在与Twitter用户互动,并从其对话中学习模仿19岁美国女性的随意沟通风格。在发布后的 24 小时内,应用程序中的一个漏洞就被恶意攻击...
73