大语言模型在序列推荐中的应用一、简介序列推荐技术通过分析用户的过往交互历史,能够有效挖掘出用户可能感兴趣的项目,对于提升各类应用的服务质量具有重要作用。近期,大语言模型(LLMs)的发展在应对复杂的推...
AI安全 | 大模型时代下的安全隐患规避
当前正处于人工智能飞速发展的黄金时期,以ChatGPT为代表的生成式人工智能技术极大地丰富了创意表达的方式,加速了知识的传播,并为社会变革注入了新的动力。在我国,大语言模型(Large Languag...
大语言模型安全,到底是什么的安全
什么是AI安全自ChatGPT问世以来,市场上涌现出了众多大型语言模型和多样化的AI应用。这些应用和模型在为我们的生活带来便利的同时,也不可避免地面临着安全挑战。AI安全,即人工智能安全,涉及在人工智...
Obsidian文字转语音插件(Text to speech)
Obsidian笔记软件有一个插件,可以将笔记中的文字转成语音播放出来。当写完一篇的时候,就可以的用语音将笔记的内容播放出来,中文、英文、日语都可以试一下。在Mac系统上,用Obsidian插件的播放...
【论文速读】| F2A:一种利用伪装安全检测智能体进行提示注入的创新方法
基本信息原文标题:F2A: An Innovative Approach for Prompt Injection by Utilizing Feign Security Detection Agen...
【论文速读】| RePD:通过基于检索的提示分解过程防御越狱攻击
基本信息原文标题:RePD: Defending Jailbreak Attack through a Retrieval-based Prompt Decomposition Process原文作者...
从Naptime到Big Sleep:通过大语言模型捕获真实代码中的漏洞
聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士如下是谷歌 Project Zero 发布的一篇文章,详述了 Big Sleep 项目如何发现了传统模糊测试无法发现的0day漏洞,探讨了大语言模型在...
Project Zero:从午睡到大睡:利用大型语言模型捕捉现实世界代码中的漏洞
From Naptime to Big Sleep: Using Large Language Models To Catch Vulnerabilities In Real-World Code介绍...
NeurIPS 2024 让大语言模型使用代码解决图分析推理任务
Neurips 2024 让大语言模型像人类专家一样使用代码解决图分析推理任务论文链接: (https://arxiv.org/abs/2409.19667/)GitHub链接: (https://g...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
与AI大语言模型进行语音对话(ollama voice)
如果想通过语音与AI大语言模型进行对话,可以使用AI语音助手,Ollama Voice语音助手,可以将用户的语音转换成文字,向Ollama大语言模型工具提问,返回的文字再转换成音频播放出来,实现用户与...
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking原文作者...
30