导 读
OpenAI 周三表示,自今年年初以来,它已经在全球范围内破坏了 20 多个试图利用其平台进行恶意目的的操作和欺骗网络。
这项活动包括调试恶意软件、为网站撰写文章、为社交媒体账户生成传记以及为 X 上的虚假账户创建 AI 生成的个人资料图片。
OpenAI 表示:“威胁组织不断发展和试验我们的模型,但我们尚未看到证据表明这会带来他们在制造全新恶意软件或吸引病毒式传播受众的能力上取得重大突破。”
OpenAI 重点介绍的一些网络行动如下:
-
SweetSpecter利用 OpenAI 的服务进行 LLM 侦察、漏洞研究、脚本支持、异常检测规避和开发。据观察,黑客组织还针对 OpenAI 员工进行了未成功的鱼叉式网络钓鱼尝试,以传播 SugarGh0st RAT。
-
伊朗伊斯兰革命卫队 (IRGC) 下属组织Cyber Av3ngers利用其模型对可编程逻辑控制器进行研究。
-
伊朗威胁组织 Storm-0817 使用其模型来调试能够收集敏感信息的 Android 恶意软件、通过 Selenium 抓取 Instagram 个人资料的工具以及将 LinkedIn 个人资料翻译成波斯语。
OpenAI 表示已采取措施封锁多个群组,包括代号为“A2Z”和“Stop News”的影响力行动,这些群组的账户生成英语和法语内容,随后发布在多个网站和各个平台的社交媒体账户上。
“[Stop News] 对图像的使用异常丰富。”研究人员 Ben Nimmo 和 Michael Flossman 表示。“其许多网络文章和推文都附有使用 DALL·E 生成的图像。这些图像通常为卡通风格,并使用明亮的色调或戏剧性的色调来吸引注意力。”
OpenAI Bet Bot 和 Corrupt Comment 发现的另外两个网络分别使用其 API 与 X 上的用户进行对话并向他们发送赌博网站的链接,以及制造随后在 X 上发布的评论。
近两个月前,OpenAI 禁止了一组与伊朗秘密影响行动Storm-2035有关的账户,这些账户利用 ChatGPT 生成内容。
威胁组织最常使用OpenAI 模型来执行特定中间阶段的任务——在他们获得互联网访问、电子邮件地址和社交媒体账户等基本工具之后,但在他们通过一系列分发渠道在互联网上部署社交媒体帖子或恶意软件等“成品”之前。
网络安全公司 Sophos 在上周发布的一份报告中表示,生成式人工智能可能被滥用,通过向目标电子邮件传播定制的错误信息。
OpenAI官方报告:
https://cdn.openai.com/threat-intelligence-reports/influence-and-cyber-operations-an-update_October-2024.pdf
链接:
https://thehackernews.com/2024/10/openai-blocks-20-global-malicious.html
扫码关注
军哥网络安全读报
讲述普通人能听懂的安全故事
原文始发于微信公众号(军哥网络安全读报):OpenAI 阻止 20 起利用人工智能进行网络犯罪和虚假信息传播的全球恶意活动
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论