GoUpSec点评:AI正在形成自己的价值观体系,人们在不了解AI“三观”(是否异化)的情况下将敏感信息和关键任务交其处理,这是极其危险的。最新研究显示,先进大模型的价值观体系远比我们想象得更为复杂。...
企业网络安全文化建设必备(5)-相见恨晚的五本宝典
读一本好书,胜过万两黄金。本篇推荐安全意识与文化专业人士必读的五本“宝典”,有助于安全意识与文化专业人士提升自我修养,破茧成蝶,更顺利地在组织内部推行安全文化变革。有些书我看了不下三遍,受益匪浅。书中...
安全团队高绩效产出五板斧:(一)团队文化建设
前言如何快速让个人变得强大,答案是抱团取暖,找到一群人志同道合之人共同成长。如何快速让团队变得强大,答案依旧是抱团取暖,把这群人变得志同道合以共同成长。什么是安全团队的高绩效产出?可以从两个角度来看,...
专题·大模型安全 | 生成式人工智能的内容安全风险与应对策略
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 知道创宇联合创始人兼CTO 杨冀龙正如一枚硬币的两面,生成式人工智能大模型(以下简称“生成式大模型”)在助力内容...
专家观点 | 人工智能的意识形态风险审视
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 贵州师范大学马克思主义学院研究员 龚丹娅当今社会,以大模型、生成式人工智能为代表的新一代人工智能正在全球范围内蓬...
《大模型训练数据白皮书》学习笔记
2024年5月24日,阿里研究院发布了《大模型训练数据白皮书》。有基础知识的科普,也有一些有趣的观点,摘录分享一下。这篇没有用AI,手工摘录的。01模型训练阶段第一阶段预训练(Pre-training...
AI Safety与AI Security:探索共同点和差异(下)
点击跳转上篇上篇(详细)中,我们探讨了人工智能生态系统的完整性、保密性、可用性以及关于AI safety的一些热门话题,接下来我们将继续探讨AI Safety究竟是什么?以及AI Safety与AI ...
大模型竟成为犯罪帮凶?
▌概述2023年大模型安全性引人关注,最新研究发现,通过微调少量有害样本,可轻易突破OpenAI GPT-4等顶级大模型的安全屏障,不再受先前的法律限制和道德约束。本文在Llama系列的模型上进行尝试...
中国工程院院士倪光南:生成式AI尚在初期,抢抓应用兼顾安全
近日,中国工程院院士倪光南在第二届北京人工智能产业创新发展大会致辞中表示,中国在人工智能市场和应用场景上潜力巨大,当下一方面要抢抓发展机遇,在垂直领域和应用场景方面发力,另一方面要有针对性地思考和研究...
关注 | ChatGPT之父关于人工智能有哪些新观点
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063在瑞士达沃斯,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼无疑是炙手可热的“明星”之一。奥尔特曼被誉为...
国内外人工智能安全战略与政策法规
在人工智能技术快速发展、应用规模迅速扩大的背景下,世界各国纷纷开展人工智能安全政策与标准相关工作。1、联合国持续关注人工智能伦理安全联合国教科文组织于2021年11月发布《人工智能伦理问题建议书》, ...
硅基生命的觉醒——a novel
在TPG公司,光滑的玻璃墙反射着夜色。Ayll,公司的共同创始人兼CTO,静静地站在TPG5的控制台前。这台机器不仅是他的杰作,也可能是人类历史上最先进的人工智能。"TPG5,你能理解你的存在吗?" ...