当前的 SOC 模型依赖于一种稀缺资源:人类分析师。这些专业人员价格昂贵,需求量大,而且越来越难以留住。他们的工作不仅技术含量高、风险高,而且重复性极强,要处理不断涌现的警报和事件。因此,SOC 分析...
OpenAI 阻止 20 起利用人工智能进行网络犯罪和虚假信息传播的全球恶意活动
导 读OpenAI 周三表示,自今年年初以来,它已经在全球范围内破坏了 20 多个试图利用其平台进行恶意目的的操作和欺骗网络。这项活动包括调试恶意软件、为网站撰写文章、为社交媒体账户生成传记以及为 X...
为什么保护大型语言模型 (LLM) 如此重要?
大型语言模型 (LLM) 是一种复杂的机器学习模型,旨在理解、生成和解释人类语言。这些模型基于使用 Transformer 架构的神经网络构建,可以从大量文本数据中学习,从而能够生成与人类写作风格和模...
专家研讨 | AI时代深度伪造治理方法
✦✦✦前言随着生成式AI的爆发,社交媒体上的内容越来越真假难辨。为规范人工智能生成合成内容标识,近日,国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《办法》),面向社会公开征...
关于人工智能与网络安全的五大误区
本文阅读大约需要2分钟;全球范围内,网络犯罪越来越复杂,手法越来越高明,这让网络安全行业每天都面临着新的挑战。安全专家们需要应对层出不穷的新型攻击,复杂的 IT 系统,以及犯罪分子利用人工智能 (AI...
人工智能安全治理框架解读——数据安全风险及应对篇
20242024年9月9日,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》1.0版(以下简称“《治理框架》”)。《治理框架》确定了人工智能的总体安全治理框架。按照“提出问题”到“解决问题”...
利用人工智能实现下一代战术优势
在不断发展的现代战争中,人工智能(AI)在塑造未来军事行动中的作用不容低估。随着空间的复杂性不断升级,人工智能加速空间的出现,由战术边缘的先进数据处理能力所支持,已经成为确保使命成功的关键。随着战争速...
【生物安全】人工智能和生物误用:大型语言模型和生物设计工具风险
【摘要】随着人工智能(AI)的进步,也推动了生命科学的进步,它们也可能使生物制剂的武器化和滥用成为可能。本文区分了构成此类生物安全风险的两类人工智能工具:大型语言模型(LLMs)和生物设计工具(BDT...
无需账户登录且免费的人工智能翻译工具
开源情报调查工作通常需要梳理大量各种类别的资料,其中也会涉及各个国家的语言文字,这会给相关从业人员带来较大的挑战,因为必须能够理解相关资料的内容,才能从中收集有价值的信息。翻译工具是开源...
警惕!FIN7通过假AI裸体生成网站传播信息窃取恶意软件
关键词恶意软件FIN7 的最新恶意软件活动利用了公众对将图片变成裸体的人工智能工具的兴趣。威胁行为者推广的在线和 Windows 工具仅提供信息窃取程序。这些恶意软件包括臭名昭著的 Lumma Ste...
专家解读 | 《人工智能能力建设普惠计划》
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 中国信息通信研究院人工智能研究所工程师 杨冰夷2024年9月25日,“人工智能能力建设国际合作”高级别会议在纽约...
专题·大模型安全 | 生成式人工智能对国家安全的挑战
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文 | 西安交通大学法学院、人工智能与信息安全法律研究中心 副教授 王新雷;西安交通大学法学院硕士研究生 唐琳玲生成式人...
113