近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发...
【翻译】通过命令提示注入来攻击大语言模型
我最近有幸运参加了Google IO开发者大会,大会发布了许多新产品。其中许多产品对人工智能的关注非常突出,尤其是生成人工智能。 生成式人工智能太令人着迷了,我很兴奋看到能通过将其功能与其他不同产品的...
通过大语言模型(LLM)识别与修复风险代码
一、低成本解决“风险代码”一直以来,“漏洞”作为一种典型的风险管理对象,链接了动态扫描(DAST)、静态扫描(SAST)等风险发现工具和企业风险修复流程。但围绕漏洞建立的“风险发现”和“风险修复”两者...
ChatGPT带来的潜在安全风险
自ChatGPT(Chat Generative Pre-trained Transformer, 聊天生成式预训练转换器)于去年11月横空出世以来,仅仅2个月时间,OpenAI在全球范围内的活跃用户...
ChatGPT检测钓鱼邮件精度高达98%
ChatGPT这种通用大语言模型(相比谷歌和微软的网络安全大语言模型)可以根据URL检测网络钓鱼网站吗?近日,卡巴斯基研究人员测试了5265个URL(2322个钓鱼网址和2943个安全网址)。研究人员...
如何用大语言模型构建一个知识问答系统
作者:simon传统搜索系统基于关键字匹配,在面向:游戏攻略、技术图谱、知识库等业务场景时,缺少对用户问题理解和答案二次处理能力。本文探索使用大语言模型(Large Language Model, L...
大语言模型在安全领域的思考和尝试 - AI安全助手
wolf读完需要8分钟速读仅需 3 分钟这是公众号的第二篇大语言模型与信息安全领域结合的探索文章,第一篇文章用 LLM 降低白盒误报及自动修复漏洞代码本篇文章作者是我的前同事,也是“巡风”的核心开发者...
最新国外数据安全事件汇总
本文汇总了最近国外数据安全事件。 1、美国政府正在购买个人信息,包括位置数据!🔗 根据美国国家情报总监办公室(ODNI)的一份报告,该办公室由艾薇儿·海恩斯(Avril Haines)主任领导,艾薇儿...
OWASP大语言模型应用程序十大风险
原文始发于微信公众号(KK安全说):OWASP大语言模型应用程序十大风险
泄露数据!AI总龙头英伟达人工智能软件可操纵个人信息!
根据一项新的研究,NVIDIA人工智能软件中的一个特性可以被操纵为忽略安全约束和泄露私人信息。英伟达创建了一个名为“NeMo Framework”的系统,允许开发者使用一系列大型语言模型——这是为聊天...
报告称英伟达人工智能软件可被轻易破解,存在泄露用户隐私的风险
关键词隐私泄露据英国《金融时报》报道,英伟达人工智能软件“NeMo” 可被轻易绕过安全限制,并且有可能泄露用户隐私。报道称,NeMo 是一款面向企业客户的软件,可结合企业用户数据与大语言模型,以此回答...
人工智能推动生产力飞速提升
2023年5月10日,布鲁金斯学会发布《人工智能推动生产力飞速提升》报告。报告指出,大语言模型如ChatGPT等正成为强大的工具,不仅提高了工作人员的生产力,还加快了创新的速度,为经济增长奠定了基础。...
30