本次分享论文:Exploring the Limits of ChatGPT in Software Security Applications 基本信息 原文作者:Fangzhou Wu, Qing...
多模态大语言模型的致命漏洞:语音攻击
OpenAI近日发布的GPT-4o多模态大语言模型震惊了世界,该模型可以通过传感器感知世界并与人类通过语音进行无缝交流,完成各种复杂任务(例如给孩子辅导数学),将科幻电影中的智能机器人场景带入现实。G...
【论文速读】|大语言模型是少样本测试员:探索基于LLM的通用漏洞复现
本次分享论文:Large Language Models are Few-shot Testers: Exploring LLM-based General Bug Reproduction基本信息原...
微软为美国情报部门提供物理隔离版ChatGPT
如何将ChatGPT这样的顶流人工智能技术安全地武器化,供情报机构和军队使用?微软给出的答案是“物理隔离”。提示注入攻击和训练数据泄露是包括ChatGPT在内的当前主流大语言模型面临的主要安全威胁,也...
世界模型之路在何方?| YEF2024
扫描报名二维码: (扫码报名)近期,OpenAI的GPT-4v和SORA、谷歌的Geimini等世界模型模型的发布,极大地推动了人工智能研究发展。世界模型是当下学术界和工业界的研究热点,被认为是通往强...
企业如何用大语言模型打赢社会工程反击战?
过去几年中,尽管企业在网络安全解决方案方面投入巨资,网络犯罪造成的经济损失却逐年上升。根据Cybersecurityventures的报告,2024年全球网络犯罪造成的损失将超过10万亿美元,成为全球...
【论文速读】| LLM4FUZZ:利用大语言模型指导智能合约的模糊测试
本次分享论文:LLM4FUZZ: Guided Fuzzing of Smart Contracts with Large Language Models基本信息原文作者:Chaofan Shou, ...
微软为美国情报部门提供物理隔离版ChatGPT
如何将ChatGPT这样的顶流人工智能技术安全地武器化,供情报机构和军队使用?微软给出的答案是“物理隔离”。提示注入攻击和训练数据泄露是包括ChatGPT在内的当前主流大语言模型面临的主要安全威胁,也...
成果分享 | 基于靶向变异的大语言模型安全通用基准测试集JADE-DB
JADE-DB:基于靶向变异的大语言模型安全通用基准测试集张谧,潘旭东,杨珉《计算机研究与发展》DOI: 10.7544/issn1000-1239.202330959摘要本文提出大语言模型安全通用基...
【论文速读】|针对模糊驱动生成的提示性模糊测试
本次分享论文:Prompt Fuzzing for Fuzz Driver Generation基本信息原文作者:Yunlong Lyu, Yuxuan Xie, Peng Chen, Hao Che...
白泽SAST团队:将LLM织入SAST程序分析流程的实践
SAST在国内外市场,静态应用安全测试(SAST)已经取得了初步的成功,但随着DevSecOps、安全左移等安全理念的出现和普及,对SAST产品在效果效率、功能易用性上需求也在不断提高。 静态程序分析...
每周GitHub精选(2024.5.5)
欢迎访问我们的网站和关注我们的公众号,获取最新的免费资源、安全知识、信息流。 网站:https://hackerchi.top ...
30