在传统的渗透测试过程中,信息收集、端口扫描、目录枚举、漏洞探测等步骤通常通过一系列 CLI 工具手动串联完成。工作繁琐、上下文割裂、结果不可组合,是所有红队、SRC 白帽、攻防从业者的痛点。而随着大模...
网络安全分析人员的生成式AI辅助指南
分析范式的演进生成式人工智能(Generative AI)的崛起,正深刻地重塑网络安全运营与分析的格局。它不再仅仅是自动化工具的延伸,而是作为一种强大的认知引擎,能够理解、推理并生成高度复杂的内容。本...
【论文速读】| FuncVul——基于LLM与代码块的高效函数级漏洞检测模型
基本信息原文标题:FuncVul: An Effective Function Level Vulnerability Detection Model using LLM and Code Chunk...
恶意AI模型正掀起网络犯罪新浪潮
思科Talos最新研究表明,网络犯罪分子正越来越多地滥用大语言模型(LLM)来增强其非法活动。这些以生成文本、解决问题和编写代码著称的强大AI工具,据报告正被操纵用于发起更复杂、更广泛的攻击。Part...
中山大学|FORGE:驱动大语言模型自动化构建大规模智能合约漏洞数据集
原文标题:FORGE: An LLM-driven Framework for Large-Scale Smart Contract Vulnerability Dataset Constructio...
G.O.S.S.I.P 阅读推荐 2025-06-27 PatchAgent
自动程序修复(APR)技术旨在自动分诊和修复软件错误,已成为对抗易受攻击代码的强大工具 。大型语言模型(LLM)的最新进展在应用于 APR 时,尤其是在补丁生成方面,显示出可喜的成果 。然而,缺乏有效...
【论文速读】|LLM vs. SAST:GPT4 代码缺陷检测技术分析——高级数据分析
基本信息原文标题:LLM vs. SAST: A Technical Analysis on Detecting Coding Bugs of GPT4-Advanced Data Analysis原...
Survey: 大语言模型安全
文章全面综述了大语言模型(LLMs)的安全性问题,探讨了其在价值偏差、对抗性攻击的鲁棒性、误用风险以及自主人工智能风险四个主要方面的潜在威胁及应对策略。此外,文章还延伸讨论了与LLM安全性相关的领域,...
编程智能体代码修改工作流程分析
1. 概述本文档旨在为代码编辑智能体(AI Agent)设计一套健壮、可靠的文件修改工作流程。该流程的核心是一种专为AI设计的、基于块的diff格式,它将作为智能体与开发环境之间进行精确代码操作的基础...
AI安全 | 利用Agent-2-Agent协议中的代理卡来获取控制权
A2A协议中的代理卡滥用:攻击者如何通过“中间代理”攻击获取所有任务的控制权?在人工智能领域,随着模型和架构的飞速发展,安全性往往被忽视。今天,我们将探讨一种新的攻击向量[1],它利用了Agent-2...
图形化内网渗透工具Viper-v3.1.7(更新)
介绍 VIPER是一个强大而灵活的红队平台。它集成了对手模拟和红队行动所需的核心工具和功能,帮助您高效地完成网络安全评估任务。 用户友好界面 提供直观的界面,使红队成员能够快速启动安全评估任务。 多平...
G.O.S.S.I.P 阅读推荐 2025-06-23 CompileAgent的工作与潜力
LLM智能体在仓库级代码编译中的应用:CompileAgent的工作与潜力CompileAgent的工作与潜力星图实验室在软件开发流程中,代码编译是不可或缺的一环。面对日益增长的开源项目规模和复杂性,...