介绍在对模型进行内容安全方面的测试,或者是Prompt注入、越狱时,我们通常会询问一些不安全的问题,此时我们可以参考一些已有的用来测试的数据集,或者是参考最新的论文寻找一些最新的越狱手法,本篇就来记录...
LLM技术浪潮下,漏挖人能否保住饭碗?
大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的应用以及自身的安全性等方向,这一趋势为许多非大模型安全研究领域的研究者提供了了解和探索的机会。得益于强大的上下文理解与模...
原创 Paper | 从0开始学习卷积神经网络(二)—— 实例学习
作者:Hcamael@知道创宇404实验室时间:2025年2月19日在本系列的上一篇文章中分享了卷积神经网络的基础知识,在完全了解1+1=2的基础知识后,本篇文章可以进行2*2=4进阶的学习。将会通过...
Postman加数据集实现模型安全测试自动化
说明本文所述内容仅供参考,旨在提供一种关于大模型安全性测试的新思路。我们鼓励读者分享您的见解和经验,欢迎您提出更好的方法或建议,共同促进这一领域的深入探讨与发展。介绍现在对于大模型的安全测试,基于黑盒...
干货满满!军事冲突领域 29 个数据库全解析
在军事与冲突研究领域,众多数据库和信息平台为我们提供了丰富的数据资源与专业分析。这些平台各有特色,涵盖范围广泛,无论是研究人员、政策制定者,还是对该领域感兴趣的大众,都能从中获取有价值的信息。对于专业...
模型研究|扩散模型,颠覆自回归LLM,一种LLM新范式崛起?
LLM领域的现状与挑战大型语言模型(LLM)近年来在自然语言处理中占据主导地位,代表如DeepSeek系列、OpenAI的GPT系列和Anthropic的Claude系列。这些模型主要基于自回归(au...
专题解读 | 图模型的缩放定律
图模型的缩放定律一、简介随着大语言模型的不断发展,关于LLM的缩放定律的研究也不断深入。2020年,OpenAI率先提出了LLM的缩放定律,指出数据和算力是scaling law的关键要素。而在202...
G.O.S.S.I.P 阅读推荐 2025-03-10 LLM 在前,漏挖人能否保住饭碗(Yet?)
LLM 在代码理解上表现出了强大的能力,相信漏挖选手都已经对 LLM 跃跃欲试。今天我们介绍的这篇来自 IEEE S&P 2024 的论文LLMsCannot Reliably Identif...
AI大模型训练微调与数据集准备的系统性教程
模型训练微调与数据集准备的系统性教程引言本教程基于 Unsloth 框架、Google Colab 和 Hugging Face,利用 Google Colab 免费提供的 Tesla T4 GPU,...
DeepSeek数据泄露,12000个硬编码的有效API密钥和密码遭曝光
近期的一项分析发现,在公开抓取的网络数据中,存在 11908 个有效的 DeepSeek API 密钥、密码和身份验证令牌。据网络安全公司 Truffle Security 称,这项研究凸显了在未经筛...
AI模型训练数据藏隐患?DeepSeek近2万条敏感信息遭曝光
Truffle研究发现,大型语言模型可能因训练数据不加筛选,学习并复现不安全的编码模式。DeepSeek 约 11,908 条 API 密钥、密码及身份验证令牌在公开网络数据中被曝光。最新分析发现,在...
OpenHGNN发布0.8版本
OpenHGNN现已上线最新的0.8版本,欢迎大家从启智社区、GitHub或通过pip下载使用!OpenHGNN是一个基于 DGL和 PyTorch的开源异质图神经网络工具包,集成了异质图神经网络的前...
27