关键要点Ø全面的LLM测试对于确保准确性,安全性和道德AI性能至关重要。Ø关键测试方法包括单元测试、功能测试、安全测试和回归测试,以评估LLM可靠性的不同方面。ØHMW.ai等工具提供端到端LLMOp...
定制化大型AI语言模型新型后门(DarkMind)攻击曝光
一、事件概述:随着人工智能(AI)技术的飞速发展,定制化大型语言模型(LLMs)因其强大的推理能力和广泛的应用场景,正被越来越多的企业和组织采用。例如,OpenAI的GPT商店已经托管了超过300万个...
G.O.S.S.I.P 阅读推荐 2025-02-17 IllusionCAPTCHA: 基于视觉错觉的验证码
今天和大家分享一篇由新南威尔士大学,南洋理工大学,CSIRO-Data61和Quantstamp合作的有趣研究IllusionCAPTCHA: A CAPTCHA based on Visual Il...
重新理解推理模型(o1/o3、DeepSeek R1)|Z 编译
「Z计划」是智谱面向未上市初创企业与优秀独立开发者/团队,提供 Tokens 赞助、投资支持和技术支持等资源的创新加速计划。面向全球,持续招募中!🐋(点击报名)「Z基金」是智谱联合生态伙伴设立的大模型...
用DeepSeek训练私有数据
这段时间,研究DeepSeek的应用成为了最流行的话题,部署它在内网中来训练私有数据、为我所用的运用尝试在各大群中热火朝天、铺天盖地地讨论着,“第四次工业革命”的威力果不其然。我也进行了一些学习尝试,...
【资料】生成式人工智能下的世界
《生成式人工智能下的世界》由Sinan Ülgen撰写,发表于2025年1月,探讨了生成式人工智能(GenAI)和大型语言模型(LLMs)在信息时代的影响。文章分析了信息时代的演变、GenAI和LLM...
【论文速读】| 评估并提高大语言模型生成的安全攻击探测器的鲁棒性
基本信息原文标题:Evaluating and Improving the Robustness of Security Attack Detectors Generated by LLMs原文作者:...
[论文翻译]多步骤越狱隐私攻击对ChatGPT的影响
https://arxiv.org/pdf/2304.05197Multi-step Jailbreaking Privacy Attacks on ChatGPT多步骤越狱隐私攻击对ChatGPT的...
专题解读 | 大模型增强图推荐的两类主流方法
大模型增强图推荐的两类主流方法一、简介大型语言模型(LLMs)的快速发展展示了其在生成、推理和建模世界知识方面的卓越能力。推荐系统也预计将从LLMs的发展中获得显著的好处。最近的研究努力已经将LLMs...
半空:LLM 辅助的 Go2Rust 项目迁移
试想一下:将一个 Golang 项目(大象)改写为(装进) Rust(冰箱) 总共需要几步?“Gopher in 冰箱” by DALLE3背景当 Rust 语言为我们展示出在「性能」、「安全」、「协...
【论文速读】| 利用大语言模型在灰盒模糊测试中生成初始种子
基本信息论文标题: Harnessing Large Language Models for Seed Generation in Greyb0x Fuzzing作者: Wenxuan Shi, Yu...
2025年值得关注的6个AI相关安全趋势
聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士大多数行业分析师认为,2025年组织机构将在多种用例中加速利用生成式人工智能 (GenAI) 和大语言模型 (LLMs)。典型场景包括客户支持、欺诈检...
7