欢迎光临!
登录
  • DNSlog
  • CN-SEC中文网·在线工具
  • 设备默认密码查询
  • 在线工具集合
  • 娱乐一下
  • 友情链接

    CN-SEC 中文网 CN-SEC 中文网

    聚合网络安全,存储安全技术文章,融合安全最新讯息

    bj
    登录
    • 首页
    • 安全新闻
    • 云安全
    • 安全博客
      • 鬼仔Blog
      • 独自等待
      • dmsec
      • Asura笔记本
      • gh0st_cn
      • javasec_cn
      • moonsec_com
      • Mr.Wu
      • 颓废's Blog
      • 漏洞时代
      • SecIN安全技术社区
    • 安全漏洞
      • 乌云漏洞
    • 安全文章
      • HW&HVV
      • 应急响应
      • 人工智能安全
    • 逆向工程
      • CTF专场
      • 移动安全
      • IoT工控物联网
    • 安全开发
      • 代码审计
    • 安全工具
    • 安全闲碎

      搜索热点

      首页语言模型第 10 页
      安全新闻

      突破ChatGPT-4o 安全防护:使用十六进制编码生成 CVE 漏洞利用代码

      要点概述0Din 研究员 Marco Figueroa 发现了一种编码技术,可以绕过 ChatGPT-4o 和其他主流 AI 模型的内置安全防护,使其能够生成漏洞利用代码。这一发现揭示了 AI 安全措...
      admin 10月29日28 views评论chatgpt 语言模型
      阅读全文
      人工智能安全

      大模型应用之RAG技术学习

      什么是RAG检索增强生成(Retrieval Augmented Generation, RAG)是一种技术,它通过从数据源中检索信息来辅助大语言模型(Large Language Model, LL...
      admin 10月28日19 views评论chain 语言模型
      阅读全文
      人工智能安全

      【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全

      基本信息原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing原文作...
      admin 10月24日76 views评论llm 网络安全
      阅读全文
      信息情报

      澳州《关于隐私和使用市售人工智能产品的指南》全文翻译

      编者按关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:ChatGPT是网络上的一个模糊的JPEG文件(外专观点)ChatGPT是如何劫持民主进程(外专观点)ChatGPT:欧洲禁止Re...
      admin 10月22日21 views评论chatgpt 人工智能
      阅读全文
      人工智能安全

      澳洲关于隐私以及开发和训练生成式人工智能模型的指南(全文翻译)

      编者按关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:ChatGPT是网络上的一个模糊的JPEG文件(外专观点)ChatGPT是如何劫持民主进程(外专观点)ChatGPT:欧洲禁止Re...
      admin 10月21日63 views评论chatgpt 人工智能
      阅读全文
      人工智能安全

      大语言模型提升安全运营的十种方法

      为什么说大语言模型是网络安全运营的一次革命?安全大语言模型到底能不能打?怎么打?网络安全是人工智能最大的细分市场,而安全运营则是生成式人工智能最热门的应用领域之一。以ChatGPT为代表的,基于大语言...
      admin 10月19日36 views评论chatgpt 网络安全
      阅读全文
      安全新闻

      AI驱动机器人暴关键漏洞,可致机器人失控执行危险行为

      近日,宾夕法尼亚大学的工程研究团队揭示了AI驱动机器人中存在的关键漏洞,这些漏洞可以被恶意操控,导致机器人执行危险任务,包括引爆炸弹。研究团队在这项研究中开发了一种名为RoboPAIR的算法,成功实现...
      admin 10月18日118 views评论ai系统 语言模型
      阅读全文
      人工智能安全

      【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击

      基本信息原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs原文作者:Xueluan Gon...
      admin 10月17日43 views评论模糊测试 语言模型
      阅读全文
      人工智能安全

      【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试

      基本信息原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs原文...
      admin 10月16日42 views评论fuzz 安全性
      阅读全文
      安全文章

      LangChain 框架介绍及关键模块分析

      1. 简介LangChain 是一个开源的编排框架,旨在将大型语言模型(LLM)与外部数据源无缝连接,助力开发者构建基于 LLM 的应用程序。该框架由 Harrison Chase 于 2022 年 ...
      admin 10月15日27 views评论llm 语言模型
      阅读全文
      安全新闻

      大模型隐私泄露攻击技巧分析与复现

      前言大型语言模型,尤其是像ChatGPT这样的模型,尽管在自然语言处理领域展现了强大的能力,但也伴随着隐私泄露的潜在风险。在模型的训练过程中,可能会接触到大量的用户数据,其中包括敏感的个人信息,进而带...
      admin 10月13日44 views评论chatgpt 敏感信息
      阅读全文

      为什么保护大型语言模型 (LLM) 如此重要?

      大型语言模型 (LLM) 是一种复杂的机器学习模型,旨在理解、生成和解释人类语言。这些模型基于使用 Transformer 架构的神经网络构建,可以从大量文本数据中学习,从而能够生成与人类写作风格和模...
      admin 10月10日人工智能安全31 views评论人工智能 数据安全
      阅读全文
      30

      文章导航

      1 … 6 7 8 9 10 11 12 13 14 … 30

      最新文章

      • Clash Verge rev提权与命令执行分析 05/09 17 views
      • 记一次小米-root+简易app抓包(新手) 05/09 8 views
      • 【实战】手把手学习写一个MCP服务,获取热榜文章 05/09 5 views
      • Windows下完整NMAP源码编译指南 05/09 10 views
      • 借助pikachu和DVWA靶场带你走进跨站请求伪造CSRF攻击 05/09 6 views

      大家喜欢

      • 669个大学网站都有注入点 4305/01
      • 揭秘CVE-2024-21111:Oracle VirtualBox 本地权限提升漏洞 2806/12
      • 【工具】Awvs14.7.220401065|可自测Spring4Shell漏洞 2304/03
      • 信息安全工程师教程第2版(文末附电子版下载) 1709/07
      • Cobalt Strike 4.4 (August 04, 2021)发布 1308/26
      • 正方教务管理系统最新版无条件注入&GetShell 1201/01
      • Acunetix14.x全版本通杀破解补丁 1012/17

      网站概况

      • 文章142996
      • 分类48
      • 标签153489
      • 留言706
      • 链接0
      • 浏览21674574
      • 今日26
      • 本周430
      • 运行6492 天
      • 更新2025-5-9

      关于本站

      name
      CN-SEC.COM中文网
      聚合网络安全,存储安全技术文章,融合安全最新讯息
       weixin
      文章142996 留言 706 访客21674574

      CN-SEC 中文网

      CN-SEC 中文网

      网站概况[CN-SEC 中文网]

      • 文章142996
      • 分类48
      • 标签153489
      • 留言706
      • 链接0
      • 浏览21674574
      • 今日26
      • 本周430
      • 运行3329 天
      • 更新2025-5-9
      Copyright ©  CN-SEC中文网  版权所有. CN-SEC.COM

      登录 找回密码

      输入用户名或电子邮件


      重置密码链接通过邮箱发送给您
      • 目录
      • 在线咨询

        13688888888
        QQ在线咨询

        微信

        微信
      • CN-SEC 中文网

        本页二维码