系统工程的发展对于解决跨学科、跨领域复杂问题有重要意义。随着人工智能技术的发展,系统工程也在加快数字化转型,并被用于更复杂的分析工作。近期,德国SysDice GmbH公司系统工程师Mohamma...
ACL 2024 | Parrot(鹦鹉):增强大语言模型在多轮对话中的指令跟随能力
多轮对话是大语言模型与人类互动的主要方式,广泛应用于消费娱乐、生产力工具和创意生成等场景。然而,构建多轮对话能力所需的训练数据人工标注成本高,且难以控制质量和多样性。因此,如何增强大模型的多轮交互能力...
用人工智能大脑创造了一只虚拟老鼠
哈佛大学的科学家与谷歌的 DeepMind人工智能实验室合作开发了一种虚拟老鼠模型,该模型具有能够模仿自然动作的人造大脑。创建该模型是为了更好地了解大脑如何控制运动。现代机器人技术尽管取得了种种成就,...
暗战——犯罪分子使用AI的五种方式!
在当今时代,人工智能(AI)正以前所未有的速度改变着我们的生活、工作和学习方式。然而,在这股技术潮流中,总有一些犯罪分子企图利用AI的便利特性进行非法活动。接下来,就一起揭秘他们那些不可告人的手段——...
万能钥匙越狱所有人工智能
微软发布了万能钥匙攻击的详细信息,该攻击绕过了人工智能模型的保护,防止它们生成恶意内容。 Microsoft Azure 首席技术官Mark Russinovich在今年 5 月的微软开发者大会上首次...
让LLM“遗忘”特定知识
一. 综述 随着大规模语言模型(Large Language Models, LLMs)的广泛应用,隐私问题日益凸显。这些模型在训练过程中难免会记住并泄露敏感信息,如个人身份信息等。为此,反学习(Un...
G.O.S.S.I.P 阅读推荐 2024-06-26 Byzantine-Robust DFL
今天为大家推荐的论文Byzantine-Robust Decentralized Federated Learning来自路易斯维尔大学投稿,是作者发表在CCS 2024上的最新工作。背景介绍Fede...
擅自使用画师作品训练大模型合法吗?全国首案开庭
将受版权保护的作品“投喂”给AI大模型训练,是否构成侵权?这是摆在国内外司法裁判者面前的棘手难题。 6月20日,备受关注的“Trik AI”绘画大模型被诉侵权使用训练语料案,在北京互联网法院开庭审理。...
大模型语音模式越狱攻击 (Jailbreak Attack)
原文标题 : Voice Jailbreak Attacks Against GPT-4o 原文作者 : Xinyue Shen, Yixin Wu, Michael Backes, Yang Zha...
Hugging Face Spaces 平台的认证令牌被盗
AI 平台 Hugging Face 表示,Spaces 平台被攻陷,导致黑客能够访问会员的认证机密。 Hugging Face Spaces 是由该社区用户创建和提交的一个AI应用仓库,可允许其他会...
生成式AI 场景下数据最小化和目的限制原则如何实现?
2024英国信息专员公署(Information Commissioner’s Office,ICO)年初开始针对个人数据保护法如何适用于生成式人工智能(GAI)的开发和使用征求公开意见。第二个...
AI 平台 Replicate 曝“跨租户攻击”漏洞,用户模型可被黑客入侵
5 月 28 日消息,安全公司 Wiz 近日发布报告,宣称开源 AI 模型共享平台 Replicate 存在重大漏洞,黑客可通过恶意模型进行“跨租户攻击”(注:即利用存在于多租户环境中的安全漏洞访问 ...
30