近日,由安全极客、Wisemodel 社区和 InForSec 网络安全研究国际学术论坛联合主办的“AI+Security”系列第 2 期——对抗!大模型自身安全的攻防博弈线上活动如期举行。在此次活动...
AI+Security系列第2期(一):对抗!大模型自身安全的攻防博弈
近日,由安全极客、Wisemodel 社区和 InForSec 网络安全研究国际学术论坛联合主办的“AI+Security”系列第 2 期——对抗!大模型自身安全的攻防博弈线上活动如期举行。本次活动邀...
微软的 AI Copilot 可以被用作自动网络钓鱼机器
导 读上周,来自世界各地的网络安全专家齐聚美国黑帽大会,这是一个了解最新网络威胁及其防御方法的著名会议。很明显,人工智能是一个热门话题,这并不令人意外。会议日程安排了几十场以人工智能为主题的会议,其中...
人工智能的发展引发的法律依据问题
关注我们,学习更多隐私合规讯息大型语言模型提供了诸如更高的效率、生产力、研究和创新等好处。欧洲数据保护委员会工作组在其5月23日发布的报告中也承认了这一点。所有LLM都是使用数据集开发和培训的。目前在...
AI的韧性与多样性
韧性经常被作为一个流行词信手拈来,但它的真正定义是什么可能相当难以捉摸。在这篇博客中,我将探讨AI韧性的三大支柱:稳健性、韧性和可塑性。虽然稳健性和韧性对AI安全至关重要,但我将重点探讨可塑性——它既...
对大型语言模型的即时抽象攻击,实现更低廉的应用程序接口定价
招新小广告CTF组诚招re、crypto、pwn、misc、合约方向的师傅,长期招新IOT+Car+工控+样本分析多个组招人有意向的师傅请联系邮箱 [email protected](带上简历和想加入的...
来自大型语言模型的威胁
简介: 大型语言模型(LLMs)极易受到操纵,因此必须将其视为系统中的潜在攻击者。LLMs 在我们的日常生活中变得非常流行,并发挥着许多功能。有点想法的的软件公司都将人工智能(AI)整合到其...
浅谈LLM应用中隐藏的安全风险
什么是LLM?通过海量文本训练的、能识别人类语言、执行语言类任务、拥有大量参数的模型,称之为大语言模型(LLM)。GPT、LLaMA、Mistral、BERT等都是LLM,LLM是对训练文本信息的压缩...
ACL 2024 | Parrot(鹦鹉):增强大语言模型在多轮对话中的指令跟随能力
多轮对话是大语言模型与人类互动的主要方式,广泛应用于消费娱乐、生产力工具和创意生成等场景。然而,构建多轮对话能力所需的训练数据人工标注成本高,且难以控制质量和多样性。因此,如何增强大模型的多轮交互能力...
GenAI账户凭证被盗,暗网每日交易量达400条
关键词人工智能近日,eSentire威胁响应小组(TRU)发现网络犯罪分子正利用生成式人工智能(GenAI)平台的普及,通过在暗网市场销售被盗账户凭证来牟利。据eSentire介绍,每天大约有400个...
实战解读:Llama Guard 3 & Prompt Guard
前序研究:实战解读:Llama 3 安全性对抗分析近日,腾讯朱雀实验室又针对 Llama 3.1 安全性做了进一步解读。2024年7月23日晚,随着Llama3.1的发布,Meta正式提出了“Llam...
Hive0137 和 AI 补充的恶意软件分布
IBM X-Force 跟踪了数十个威胁行为者团体。X-Force 跟踪的 Hive0137 组织自 2023 年 10 月以来一直是一个高度活跃的恶意软件传播者。Hive0137活动被 X-Forc...
44