免责声明:由于传播、利用本公众号李白你好所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,公众号李白你好及作者不为此承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立...
科恩BinaryAI@ICSE2024论文解读|基于大模型的二进制软件成分分析
0引言随着开源软件在商业及个人项目中变得日益普及,开发团队越来越多地依赖外部组件库以加速开发进程,软件供应链的复杂性不断增加,同时也带来了潜在的安全风险。例如,XZ后门漏洞(CVE-2024-3094...
LLM 安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本次分享论文: LLM Agents can Autonomously Exploit One-day Vulnerabilities 基本信息 原文作者:Richard Fang, Rohan Bi...
[论文工具] LaTeX常见错误及解决方法汇总笔记(eps2pdf失败 | 特殊符号 | 参考文献未显示或越界)
祝大家中秋国庆双节快乐!回过头来,我们在编程过程中,经常会遇到各种各样的问题。然而,很多问题都无法解决,网上夹杂着各种冗余的回答,甚至需要看自己多年前的博客来解决。为更好地从事科学研究和编程学习,后续...
【Vidar论文研读分享】一种更安全的LLM指令层次结构
今天是世界读书日,我们一起来简短地读一篇轻松惬意的LLM安全相关的文章。来自OpenAI团队,发布于4月19日,非常的热乎。Intro现代大语言模型 (LLM) 不再单纯得被设计为简单的auto-co...
【论文速读】| 针对红队攻击和防御大模型的攻击提示生成
本次分享论文:Attack Prompt Generation for Red Teaming and Defending Large Language Models基本信息原文作者:Boyi Den...
SecMet#1期 理解和度量大模型的安全问题
[SecMet]是安全学术圈近期打造的一个线上线下结合的学术研讨模式,研讨会分为全公开和半公开模式,其中半公开模式仅对安全学术圈内部交流群和特殊专题投稿人员参加,每期主题根据领域主席(Primary ...
Prompt屠龙术-大厂prompt工程指南解析提炼
本文介绍prompt的通用编写原则,以及如何使用结构化的方法来帮助我们理顺思维,规范流程提示工程是艺术与科学的结合,它通过设计和制作基于自然语言的文本提示来桥接人与AI的关系。结构化框架可以帮助用户有...
使用零信任掌控 LLM 人工智能
模型能干的事情越多,干错事的风险就越大,所以必须给它们设置点规矩,就好比给孙大圣带上紧箍咒。如果一个模型能生成一个Envelope并调用REST API,听着是不是很牛?但这也意味着,如果有人想入侵我...
AI | 基于 LangChain 的 AI Agent 智能体概述
1.人机协同三种模式 生成式AI的智能演化至今,人机协同呈现了三种模式: 嵌入(embedding)模式。用户通过与AI进行语言交流,使用提示词来设定目标,然后AI协助用户完成这些目标,比如普通用户向...
AI安全:生成式AI原理与应用分析
术语解释:机器学习ML:使AI从数据中学习并做出决策或预测,分为监督学习 无监督学习 强化学习监督学习=小时候你妈教你数学,通过大量正确的数学试题来指导你无监督学习=你刷短视频时候经常刷美女 一定程度...
72