0x00 前言近年来,机器学习在计算机视觉、语音识别、自然语言处理、医疗数据分析等方面的应用取得了瞩目的研究成果,展现了机器学习在解决分类、预测以及辅助决策中强大的能力,使得机器学习技术为解决传统方法...
LlamaFirewall:开源框架助力检测与缓解AI核心安全风险
LlamaFirewall 是一款面向大语言模型(LLM)应用的系统级安全框架,采用模块化设计支持分层自适应防御。该框架旨在缓解各类AI代理安全风险,包括越狱攻击(jailbreaking)、间接提示...
OpenAI大语言模型漏洞挖掘
该事件引发了业内广泛关注,标志着AI在漏洞挖掘领域的实用能力正从理论走向现实。来源|安全客以下为全文近日,一个编号为CVE-2025-37899的Linux内核0Day漏洞被披露。不同于传统由人类安全...
AI还是Anonymous Indians?——Builder.ai破产背后的AI产业幻象与劳工暗流
前言当一家估值13亿美元的微软系AI独角兽轰然倒塌,人们发现其引以为傲的“AI自动化开发平台”背后,竟是印度程序员日夜伪装的代码流水线。这场名为Builder.ai的荒诞剧,撕开了AI创业狂潮中最不堪...
图神经网络系列三:社交关系推荐GraphRec
Graph Neural Networks for Social Recommendation论文创新点一般,网上的评价不高特别是针对代码和实验效果质疑声很大, 但是作者写了一手好八股,我们借鉴一下实...
ai攻防应用-基于xgboost算法的waf异常行为识别
作者:yueji0j1anke首发于公号:剑客古月的安全屋字数:726阅读时间: 10min声明:请勿利用文章内的相关技术从事非法测试,由于传播、利用此文所提供的信息而造成的任何直接或者间接的后...
云上LLM数据泄露风险研究系列(三):开源大模型应用的攻击面分析
一. 概述本系列前两篇文章深入探讨了向量数据库和LLMOps在全球的暴露面及攻击面,本文作为第三篇,将重点关注当前主流大模型应用的安全风险。如今,大模型上云趋势明显,大多数大模型应用都可通过Docke...
大模型全流程投毒实践与防御策略
前言在当今大规模预训练与微调模型广泛应用的背景下,模型安全已成为业界与学术界共同关注的重点。攻击者可在模型生命周期的各个环节——从海量数据收集、预训练到模型微调、大模型智能体——实施“投毒”攻击,悄无...
基于深度学习的侧信道分析模型EstraNet
融合Transformer架构与移位不变特性的新型SCA解决方案撰文 | 陈龙飞编辑 | 刘梦迪一、背景介绍近年来,学术界探索了许多深度学习(DL)模型应用到侧信道分析(SCA)中。基于Transfo...
Ai + burpsuite@漏洞自动化检测搭建
一、当安全遇上人工智能:漏洞检测的技术革命在攻防对抗日益激烈的今天,传统漏洞检测方法面临效率瓶颈。小编将一步步教大家如何通过Cherry Studio的MCP服务构建"AI安全指挥官",实现BurpS...
煮酒言规 | 第173期 | AI试衣具备舆论属性吗
煮酒言规///////////////数据合规是一个比较新的领域,很多问题都难以通过公开渠道检索到答案。此时,实务人士间的思想碰撞、交流就显得尤为珍贵。• CONTENT •「游戏公测的界定」「AI试...
AI的阴暗面:揭露举报模式与勒索企图
人工智能行业正热议最新发布的克劳德4(Claude 4)系列模型。这些模型具备先进的持续推理能力,能够在执行复杂任务时自主暂停,通过搜索引擎或外部工具检索数据,然后无缝恢复操作。持续推理与举报功能这种...
78