漏洞描述:Ollama是一个功能强大、易于使用且支持多种大型语言模型和机器学习框架的开源框架,它极大地简化了大型语言模型在本地部署和管理的过程,为研究和开发人员提供了极大的便利,Ollama中被披露存...
NeurIPS 2024 让大语言模型使用代码解决图分析推理任务
Neurips 2024 让大语言模型像人类专家一样使用代码解决图分析推理任务论文链接: (https://arxiv.org/abs/2409.19667/)GitHub链接: (https://g...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
与AI大语言模型进行语音对话(ollama voice)
如果想通过语音与AI大语言模型进行对话,可以使用AI语音助手,Ollama Voice语音助手,可以将用户的语音转换成文字,向Ollama大语言模型工具提问,返回的文字再转换成音频播放出来,实现用户与...
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking原文作者...
【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全
基本信息原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing原文作...
大语言模型提升安全运营的十种方法
为什么说大语言模型是网络安全运营的一次革命?安全大语言模型到底能不能打?怎么打?网络安全是人工智能最大的细分市场,而安全运营则是生成式人工智能最热门的应用领域之一。以ChatGPT为代表的,基于大语言...
【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击
基本信息原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs原文作者:Xueluan Gon...
【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试
基本信息原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs原文...
【生物安全】人工智能和生物误用:大型语言模型和生物设计工具风险
【摘要】随着人工智能(AI)的进步,也推动了生命科学的进步,它们也可能使生物制剂的武器化和滥用成为可能。本文区分了构成此类生物安全风险的两类人工智能工具:大型语言模型(LLMs)和生物设计工具(BDT...
G.O.S.S.I.P 阅读推荐 2023-08-28 大字的研究
在《福尔摩斯探案集》里面,柯南道尔用一篇非常经典的“study”——《血字的研究》(A study in Scarlet),宣告了传奇侦探的出场。今天推荐的论文 A Study on Robustne...
本地大语言模型部署及应用
01模型2024-07-24,Meta 正式发布新一代开源大模型 Llama 3.1 系列,该模型共有三个版本:8B70B405Bmeta评估了超过 150 个语言覆盖范围广的基准数据集。比较了 Ll...
15