Docker逃逸是指攻击者通过利用Docker容器中的漏洞或弱点,成功地从容器中逃脱并进入宿主机系统。这种攻击方式可能会导致严重的安全问题,例如攻击者可以访问宿主机上的敏感数据、执行恶意代码等。关于破...
Prompt Injection Primer for Engineers- 提示注入入门指南
文章首发于个人博客:https://mybeibei.net,点击最下方“阅读原文”可直接跳转查看。背景介绍随着 AI 大语言模型的火爆,其安全性也受到了安全人员的关注。最近国外一位安全研究人员将目前...
一文入门最热的LLM应用开发框架LangChain
作者: 腾讯应用宝 MoonWebTeam 团队 jansezhou 在人工智能领域的不断发展中,语言模型扮演着重要的角色。特别是大型语言模型(LLM),如 ChatGPT,已经成为科技领域的热门话题...
一文搞懂大模型框架:LangChain
来源:AI研究局作者:张伟在日常生活中,我们通常致力于构建端到端的应用程序。有许多自动机器学习平台和持续集成/持续交付(CI/CD)流水线可用于自动化我们的机器学习流程。我们还有像 Roboflow ...
深度好文|LLM在工业控制中的应用空气调节系统
cckuailong读完需要3分钟速读仅需 1 分钟1 前言最近,微软亚洲研究院提出可以将 LLM 用于工业控制,而且仅需少量示例样本就能达成优于传统强化学习方法的效果。该研究...
新型对抗攻击影响ChatGPT等主流大语言模型
ChatGPT是一个基于人工智能技术的自然语言处理模型,可以通过学习大量的语料库,生成自然语言的文本和对话。ChatGPT通过为各行各业带来更高效、智能和个性化的服务而对各行业带来变革性影响。研究人员...
提升ChatGPT性能的实用指南:Prompt Engineering的艺术
作者:mony一起探索 Prompt Engineering 的奥秘,并学习如何用它来让 ChatGPT 发挥出最大的潜力。什么是提示工程?提示工程是一门新兴学科,就像是为大语言模型(LLM)设计的"...
屡试不爽|绕过ChatGPT安全限制的新方案
cckuailong读完需要4分钟速读仅需 2 分钟1 前言卡内基梅隆大学近期发现了一种新的绕过 LLM 安全限制的方案 -- 添加对抗性后缀,这种方案完全规避了开源 LLM(...
谷歌成立红队测试针对人工智能系统的攻击
谷歌创建了一个专注于人工智能(AI)系统的红队,并发布了一份报告,概述了常见的攻击类型和吸取的教训。该公司在推出安全人工智能框架( SAIF )几周后宣布成立人工智能红队,该框架旨在为人工智...
LLM微调经验分享
原文链接:https://twitter.com/xinqiu_bot/status/1679786303716749312(1/15)在经历了无数次踩坑后,来分享一些针对私有数据进行finetune...
【翻译】通过命令提示注入来攻击大语言模型
我最近有幸运参加了Google IO开发者大会,大会发布了许多新产品。其中许多产品对人工智能的关注非常突出,尤其是生成人工智能。 生成式人工智能太令人着迷了,我很兴奋看到能通过将其功能与其他不同产品的...
通过大语言模型(LLM)识别与修复风险代码
一、低成本解决“风险代码”一直以来,“漏洞”作为一种典型的风险管理对象,链接了动态扫描(DAST)、静态扫描(SAST)等风险发现工具和企业风险修复流程。但围绕漏洞建立的“风险发现”和“风险修复”两者...
44