【摘要】随着人工智能(AI)的进步,也推动了生命科学的进步,它们也可能使生物制剂的武器化和滥用成为可能。本文区分了构成此类生物安全风险的两类人工智能工具:大型语言模型(LLMs)和生物设计工具(BDT...
论文解读:《From ChatGPT to ThreatGPT》(上)
一. 综述来自田纳西理工大学的五位作者于7月3日发表了一篇名为《From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity ...
转载|论文精读《ChatHaruhi: 通过大型语言模型在现实中复活动漫角色》
cckuailong读完需要4分钟速读仅需 2 分钟转载自宝玉推文:https://twitter.com/dotey/status/16938397696192921641前言论文又名《Chat 凉...
src收录范围的ai安全赏金挖掘初探
如今各厂也有自己的ai,src也开始收录一些关于ai的漏洞,那么我们如何去赚一些关于ai的赏金呢?我分享几个案例LLM提示词注入我们篡改了他的数据库,可能通过给他大量发消息,自己创建个博客写的自己很权...
CrowdStrike的AI能力分析
生成式大模型已经广泛应用于网络安全产业。CrowdStrike作为领先的安全厂商,也在生成式大语言模型上有非常大的投入,并已经广泛用于各安全产品。本文对CrowdStrike的AI能力作综合分析,共分...
网络流量大模型TrafficLLM
今天为大家介绍中关村实验室崔天宇博士和清华大学徐恪教授、李琦教授团队共同发布的流量大模型工作TrafficLLM。网络流量分析支持许多基于机器学习(ML)的模型来检测威胁和维护服务质量,但传统方法在面...
如何使用大型语言模型(LLMs)自动检测BOLA漏洞
本文介绍了对一种名为 BOLABuster 的方法所进行的研究,该方法使用大型语言模型 (LLM) 来检测对象级授权损坏(BOLA)漏洞。通过大规模自动化 BOLA 检测,我们将在识别开源项目中的这些...
G.O.S.S.I.P 阅读推荐 2023-08-28 大字的研究
在《福尔摩斯探案集》里面,柯南道尔用一篇非常经典的“study”——《血字的研究》(A study in Scarlet),宣告了传奇侦探的出场。今天推荐的论文 A Study on Robustne...
黑客在ChatGPT中植入虚假记忆,以永久窃取用户数据
黑客在ChatGPT中植入虚假记忆,以永久窃取用户数据 电子邮件、文件和其他不信任内容可能会植入恶意记忆。安全研究员约翰·雷伯格最近报告了ChatGPT中的一个漏洞,允许攻击者在用户的长期记忆设置中存...
安全研究员在ChatGPT中永久植入虚假信息和恶意指令 还可用来窃取用户数据
2024年9月25日,安全研究员约翰-雷贝格(Johann Rehberger)最近报告了ChatGPT 中的一个漏洞,攻击者可以将虚假信息和恶意指令存储在用户的长期内存设置中。于是,Rehberge...
人工智能应用的网络安全风险解读
OpenAI ChatGPT的推出是人工智能(AI)领域的一个转折点,甚至可以说是历史上的一个分水岭。这个平台的多种功能不仅吸引了消费者,还激发了工程师们利用生成式AI的特点来构建应用程序,尽管缺乏强...
Monocle:一款基于LLM的二进制文件自然语言搜索工具
关于Monocle Monocle是一款基于LLM的二进制文件自然语言搜索工具,该工具由LLM驱动,用于对已编译的目标二进制文件执行自然语言搜索,并查找加密代码、密码字符串和安全缺陷漏等。 功能介绍 ...
42