近日,宾夕法尼亚大学的工程研究团队揭示了AI驱动机器人中存在的关键漏洞,这些漏洞可以被恶意操控,导致机器人执行危险任务,包括引爆炸弹。研究团队在这项研究中开发了一种名为RoboPAIR的算法,成功实现...
【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击
基本信息原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs原文作者:Xueluan Gon...
【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试
基本信息原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs原文...
LangChain 框架介绍及关键模块分析
1. 简介LangChain 是一个开源的编排框架,旨在将大型语言模型(LLM)与外部数据源无缝连接,助力开发者构建基于 LLM 的应用程序。该框架由 Harrison Chase 于 2022 年 ...
大模型隐私泄露攻击技巧分析与复现
前言大型语言模型,尤其是像ChatGPT这样的模型,尽管在自然语言处理领域展现了强大的能力,但也伴随着隐私泄露的潜在风险。在模型的训练过程中,可能会接触到大量的用户数据,其中包括敏感的个人信息,进而带...
为什么保护大型语言模型 (LLM) 如此重要?
大型语言模型 (LLM) 是一种复杂的机器学习模型,旨在理解、生成和解释人类语言。这些模型基于使用 Transformer 架构的神经网络构建,可以从大量文本数据中学习,从而能够生成与人类写作风格和模...
Google新研究:适用于百万级单元格的TableRAG
Google新研究:适用于百万级单元格的TableRAG发布时间:2024 年 10 月 07 日RAG Text2Code NL2CodeTableRAG: Million-Token Table ...
【生物安全】人工智能和生物误用:大型语言模型和生物设计工具风险
【摘要】随着人工智能(AI)的进步,也推动了生命科学的进步,它们也可能使生物制剂的武器化和滥用成为可能。本文区分了构成此类生物安全风险的两类人工智能工具:大型语言模型(LLMs)和生物设计工具(BDT...
G.O.S.S.I.P 阅读推荐 2023-08-28 大字的研究
在《福尔摩斯探案集》里面,柯南道尔用一篇非常经典的“study”——《血字的研究》(A study in Scarlet),宣告了传奇侦探的出场。今天推荐的论文 A Study on Robustne...
网络安全领域的12个大语言模型用例
网络安全是人工智能最大的细分市场,过去几年网络安全厂商纷纷宣称整合了人工智能技术(当然也有很多仅仅是炒作),其中大部分是基于基线和统计异常的机器学习。随着ChatGPT和类似生成式人工智能技术的飞速发...
带你认识微信多模态大模型 POINTS
作者:bensenliu始于数据,但不局限于数据POINTS: Improving Your Vision-language Model with Affordable Strategiespaper...
Obsidian笔记实现本地知识库(llama3、RAG)
用过去写的Obsidian笔记Markdown文档,生成一个本地的知识库,通过GPT或者本地大语言模型(LLM), 通过对话进行提问,如果之前写的Obsidian笔记都原创的文档,GPT和本地大语言模...
30