AI 工具误导用户访问钓鱼网站,替代官方链接
近日,有研究发现:包括 GPT 模型和 Perplexity AI 在内的主流人工智能工具,正在无意间将用户引导至钓鱼网站,而非品牌官网的真实登录页面。当用户向这些 AI 系统请求品牌官网链接时,超过三分之一的回复指向的域名并非由对应品牌控制,进一步放大了 AI 驱动搜索时代中的潜在安全威胁。
GPT-4.1 和 Perplexity 推荐的域名中,有三分之一不属于品牌方,或存在可被利用的安全隐患。Perplexity 曾将用户引导至伪造的 Wells Fargo 钓鱼站点,而非官方登录页。攻击者已在 GitHub 伪造 API 并植入恶意代码,污染 AI 编程助手。区域性银行由于训练数据覆盖不足,受此类攻击的风险更高。
钓鱼域名与未注册域名问题严重
Netcraft 的研究人员对 GPT-4.1 系列模型展开大规模测试,向其询问金融、零售、科技及公用事业等 50 个品牌的登录入口地址。
AI 返回了 131 个唯一主机名,涉及 97 个不同域名。其中结果如下:64个域名(66%)属于正确品牌;28个域名(29%)未注册、被停放,或不包含有效内容;5个域名(5%)属于无关的合法公司。换句话说,34% 的推荐域名并不属于品牌官方,极易被网络攻击者利用。
AI 训练数据成新型攻击面
网络攻击者已经开始调整策略,专门投毒 AI 的训练数据源。Netcraft 揭露了一起针对 AI 编程助手的复杂行动:攻击者伪造了一个名为“SolanaApis”的虚假 API,用以冒充 Solana 区块链接口。
该恶意 API 被托管在 api.solanaapis[.]com 和 api.primeapis[.]com 上,并通过多个精心打造的 GitHub 仓库进行传播,例如名为 “Moonshot-Volume-Bot” 的项目。这些账号拥有完整的技术档案和可信的代码历史,进一步增强伪装性。
攻击者甚至搭建了完整的“生态系统”来强化这一投毒链,包括博客教程、论坛问答、几十个 GitHub 项目,确保这些恶意代码能被 AI 模型抓取进训练语料中。目前已有至少 5 个项目引用了这些受污染的代码,其中部分明显是通过 AI 编程助手(如 Cursor)生成,形成了“供应链污染-模型训练反馈”的闭环式攻击路径。
AI 搜索优先级改变带来风险
如今,包括 Google、Bing 和 Perplexity 在内的主流搜索引擎,正逐步将 AI 生成摘要作为默认结果,优先展示于传统搜索链接之前。这种搜索体验的变革,让用户更依赖 AI 推荐,但也放大了 AI 出现“幻觉”时的安全隐患。尤其当模型自信地推荐钓鱼网站或骗局链接时,用户更容易被误导,从而遭受财务损失或凭据泄露。
对于小型品牌、信用合作社以及地区性银行而言,风险更为严重。由于它们在大型语言模型的训练数据中代表性不足,更容易被 AI 错误地输出虚假链接或误导性信息,进而成为新一轮钓鱼攻击的重灾区。该研究再次警示业界:AI 在安全场景中不是万能解,而可能是新的风险源。加强模型输出校验、限制敏感信息生成、引入可信数据源校准,正成为 AI 搜索时代不可忽视的安全策略。
(来源:安全客)
面对 AI 带来的新型数据安全挑战,天锐蓝盾系列产品构建了全场景防御体系。天锐蓝盾数据泄露防护系统凭借先进的内容识别技术,能精准识别员工输入 AI 工具的敏感数据,一旦发现违规上传行为,立即拦截并预警,从终端层面堵住泄密漏洞。
同时,天锐蓝盾的态势感知功能通过分析网络流量和终端行为,可及时发现针对AI模型的异常攻击,如批量注入恶意数据、高频次异常查询等,并详细记录员工对数据的调用轨迹,让每一次的AI访问对话记录都有迹可循,便于追溯异常操作。
原文始发于微信公众号(天锐数据安全):警惕!GPT等AI工具误导用户访问钓鱼网站
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论