OpenAI的Sora API泄露:API安全的又一次警钟

admin 2024年11月29日14:35:59评论85 views字数 4285阅读14分17秒阅读模式

OpenAI的Sora API泄露:API安全的又一次警钟

NEWS

OpenAI的Sora API泄露,奥特曼紧急拔网线

在技术圈,11月27日凌晨发生的一起事件引发热议:OpenAI的文生视频模型Sora的API接口遭到恶意泄露。在短短数小时内,大量未经授权的用户通过泄露的接口调用模型资源,可能造成的安全与商业损失令人担忧。这一事件迅速掀起波澜,再次将“API安全”这一技术议题推到公众视野的中心。

OpenAI的Sora API泄露:API安全的又一次警钟

事情的起因:艺术家与OpenAI的矛盾升级

Sora是OpenAI开发的一款视频生成工具,近期处于内测阶段,邀请了数百名艺术家参与测试,旨在通过他们的反馈完善模型。按理说,这本应是一次双赢的合作——艺术家提供创意和建议,OpenAI优化工具。但实际情况却让艺术家们感到愤怒和失望。

艺术家的不满集中在以下几点

1. 贡献未得到应有回报

艺术家为OpenAI提供了大量无偿的测试、反馈和实验工作,然而只有少量作品有机会通过竞赛形式获得展示机会。

2. 作品过度审核

提交的创作需要经过OpenAI团队层层审核,展览决定权完全掌握在官方手中,这让艺术家们觉得创作自由受限,甚至沦为免费的公关工具。

3. 缺乏尊重的合作模式

艺术家认为,自己为估值高达1500亿美元的公司提供了巨大公关价值,却几乎没有实际回报。他们的创作更像是为OpenAI免费制作宣传素材。

于是,愤怒的艺术家决定采取行动,其中一部分人选择了“放大招”——将Sora的API泄露到开源平台Hugging Face。

泄露的后果:Sora的API短暂“自由”

在Hugging Face平台上,这些艺术家发布了一个接入Sora API的前端工具,任何人都可以通过它生成视频。泄露版本支持通过简短的文本描述生成10秒长度的视频,分辨率可达1080P、720P和360P。更惊人的是,泄露的Sora API似乎是经过优化的“Turbo”版本,生成速度更快,效果令人惊艳。

这一泄露让Sora瞬间成为公众热议的焦点,不少用户利用这段时间生成了各种视频。尽管工具很快被OpenAI紧急叫停,但事件的影响早已扩散。

OpenAI的Sora API泄露:API安全的又一次警钟

OpenAI的Sora API泄露:API安全的又一次警钟

更有网友用 AI 生成了山姆·奥特曼紧急拔网线的恶搞视频

OpenAI的Sora API泄露:API安全的又一次警钟

艺术家们的抗议:公开信与联名声讨

随项目同时发布的还有一封言辞激烈的公开信。在信中,艺术家们将OpenAI比作“中世纪的封建领主”,谴责他们利用了艺术家的无私贡献,却并没有给出合理的报酬。“我们获得了Sora的使用权,并承诺成为早期测试者、红队成员和创意合作伙伴。然而,我们认为,我们被引诱进行‘艺术洗白’,以告诉世界Sora对艺术家来说是一个有用的工具。”

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

以下是泄露Sora人的公开信全文(翻译)

致尊敬的企业AI霸主:

我们被承诺能够作为Sora的早期测试者、红队成员以及创意合作伙伴参与。然而,我们认为实际上我们被引诱参与所谓的“艺术洗白”,以证明Sora是一个对艺术家有用的工具。
艺术家不是你们的免费研发人员
我们不是你们的:免费漏洞测试员、公关工具、训练数据提供者或验证工具。
数百名艺术家通过漏洞测试、反馈和实验性工作,为一家估值1500亿美元的公司无偿贡献劳动。而在数百人免费贡献的基础上,仅有少数人通过竞争被选中,他们的Sora创作作品将可能获得展示机会——但这种回报微不足道,与OpenAI通过这些活动获得的巨大营销价值相比完全不成比例。
此外,每个生成的内容在分享之前都需要经过OpenAI团队的批准。这个早期访问计划看起来更像是一个围绕公关和商业推广的活动,而不是关于创作自由与艺术批评的平台。
因此我们决定开放这个工具,让所有人都可以尝试约300名艺术家所获得的体验:免费且无限制地访问这个工具。
我们并不反对将AI技术作为艺术创作的工具(如果反对,我们大概根本不会被邀请参与这个项目)。但我们反对这个艺术家计划的推出方式,以及它在可能公开发布前的演变方向。我们选择公开分享这些内容,希望OpenAI变得更加透明、更友好、更支持艺术家的真实表达,而不仅仅是为了公关噱头。
我们呼吁艺术家选择其他视频生成工具:
开源视频生成工具可以让艺术家摆脱商业利益和企业公关的束缚,自由尝试先锋艺术创作。我们也邀请艺术家使用自己的数据集训练属于自己的模型。
以下是一些可用的开源视频工具:
CogVideoX
Mochi 1
LTX Video
Pyramid Flow
当然,我们也意识到,并不是每个人都有运行这些开源工具和模型所需的硬件或技术能力。因此,我们也呼吁工具开发者倾听艺术家的需求,为艺术家的自由表达之路提供支持,并给予他们公平的报酬。
祝创作愉快。
部分内测Sora-alpha的艺术家(后面列举了近20个参与方)

有意思的是,在公开信相关网站上,它获得了798名联名支持者,与OpenAI极其不对付的马斯克也在其中。但考虑到签名系统不需要严格的身份认证,暂时不能确定其是否为马斯克本人。

OpenAI的Sora API泄露:API安全的又一次警钟

OpenAI的Sora API泄露:API安全的又一次警钟

看似不起眼的API漏洞,为什么会成为引发大规模数据安全事故的导火索?

OpenAI的Sora API泄露:API安全的又一次警钟

API:现代数字经济的“大门”

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

在数字化时代,API(应用程序编程接口)早已成为企业系统之间进行数据交互的核心纽带。从企业角度来看,大量敏感数据如用户的个人信息、企业的商业机密等,都通过 API 进行传输和交互。一旦 API 安全出现漏洞,这些数据就可能落入不法分子手中。金融机构的 API 若被攻破,客户的账户信息、交易记录等可能被窃取,进而导致客户资金受损,企业声誉扫地。医疗行业的 API 泄露,患者的隐私数据被曝光,这不仅侵犯了患者的权益,还可能违反相关法律法规,给医疗机构带来巨大的法律风险。

无论是智能化应用的创新,还是传统业务的转型,API都扮演着不可或缺的角色。但API也像一把双刃剑:

1. 易暴露性:API往往对外开放,一旦验证机制薄弱或密钥管理不善,就容易成为攻击者的突破口。

2. 高价值性:通过API直接访问核心功能或敏感数据,攻击成本低但潜在收益高。

3. 难管控性:随着企业API数量的激增,缺乏全面的安全监控和防护体系,难以及时发现和阻止攻击。

像Sora事件这样的API泄露,可能只是冰山一角。更多的安全风险往往在暗处酝酿,直至爆发。

OpenAI的Sora API泄露:API安全的又一次警钟

典型的API安全威胁

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

OWASP Top 10 API Security Risks – 2023清单

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

每一种威胁的背后,都可能造成不可挽回的经济损失、品牌声誉受损以及监管罚款等问题。

OpenAI的Sora API泄露:API安全的又一次警钟

安恒信息API安全实践

打造动态安全防护体系

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

为避免API接口遭受攻击与威胁,应当优先解决API资产管理的问题。

由于API数量快速增加,复杂性日益提升,API资产管理变得越来越困难。安恒信息API风险监测系统是一款集简单易用、风险监测准确、场景覆盖全面、资产运营高效、数据操作全面留痕特点于一身的API数据安全产品。该产品不侵入业务,通过旁路部署即可轻松实现API 资产动态梳理和 API 风险监测。

2023年,安恒信息API风险监测系统已通过信通院全面测试评估,在 API 资产管理、API 安全监测、API 安全防护、API 审计四大安全模块的成熟度评测中均达到“先进级(最高级)”要求,成为全国首批通过API安全能力评估的产品。

OpenAI的Sora API泄露:API安全的又一次警钟

通过部署安恒API安全网关系统,可统一为API提供访问身份认证、权限控制、访问监控、动态脱敏、流量管控、流量加密等机制,通过阻止大部分潜在攻击流量,使其无法到达真正的API服务侧,并对API访问进行全程监控,保障API的安全调用及访问可视。

OpenAI的Sora API泄露:API安全的又一次警钟

安恒API安全网关系统还可定期更新病毒库与安全防御规则,及时修复潜在漏洞和缺陷,在不断完善API接口安全风险防范的同时,最大程度地保障API接口的稳定运行。

OpenAI的Sora API泄露:API安全的又一次警钟

案例:某汽车企业API暴露面监测项目

背景与挑战

某集团作为一家特大型国有汽车企业,其产销一直在中国的汽车产业处于领先地位。该集团核心业务与内外部数据处 理高度依赖API,然而,敏感数据的调用和流转不透明,缺乏有效的数据安全监测手段,难以指导实施有效的防护措施, 导致数据安全责任难以落实。

仅集团内部对外暴露的 API 数量就达到了 2W+,缺乏有效的手段梳理 API 资产清单,存在存量资产管理不当的安全隐患。

在对 API 资产无法梳理清楚的情况下,更无法感知对外暴露的 API 是否存在脆弱性风险和行为风险,以及是否可能存在敏感数据泄露。

解决方案与收益

通过旁路部署API风险监测工具,从网络流量中自动发现目标系统存在的API资产并纳入管理。基于监测API资产被访问的情况,针对数据接口可能面临的脆弱性风险和数据泄露、滥用等问题,实现数据接口鉴权失效风险、资产信息泄漏风险、敏感数据暴露风险、接口访问行为风险、用户实体异常行为风险等场景监测,并具备对发现的安全风险进行取证 和溯源的分析能力。

动态资产梳理:系统共识别到2000+对外暴露的应用系统、2W+API 。并发现疑似下线应用 15 个 、API 378个。这不仅可以帮助企业更好地理解和管理API资产,也是识别并解决安全问题的重要依据。

智能风险监测:此次系统共识别发现 1900 个 API 存在高危脆弱性风险,发现一起每日 0-2 点黑客暴力破解的攻击行为。系统持续监控API的脆弱性、合规、攻击行为,让企业能够及时了解风险,防范在先,扼杀事件发生的可能。

API全流量审计:系统全面记录API的所有操作,形成详细的审计日志。这不仅可以帮助查明问题的原因,也使得API的调用更为透明,防止不正当操作和攻击行为。

这三大功能共同保证了“数据资产可管、安全风险可见、API操作全面留痕”。

启示借鉴

随着API成为企业核心业务能力的关键支撑,API安全管理的重要性逐渐凸显。API风险监测工具的应用可以全面强化 API安全管理,实现从API资产发现、安全风险监测到漏洞修复的闭环管理。这在一定程度上可以保证API的安全可靠, 减少数据泄露、服务中断等安全事件的发生。

OpenAI的Sora API泄露:API安全的又一次警钟

写在最后:

OpenAI的Sora API泄露:API安全的又一次警钟

API安全的未来,不止于被动防护

OpenAI的Sora API泄露:API安全的又一次警钟
OpenAI的Sora API泄露:API安全的又一次警钟

OpenAI Sora事件让我们深刻认识到,API作为现代技术生态的基础设施,亟需从设计到运行的全方位防护。企业不仅要关注技术的先进性,更要确保这些技术的安全性可控性

安恒信息将持续以全、智、联动态全过程安全体系为核心,推动API安全技术的深入发展,助力企业应对更多未知的挑战。

安全不止于此,未来由你我共同守护。

OpenAI的Sora API泄露:API安全的又一次警钟

“安恒信息”微信公众号设为星标

关注信息不走丢哦!

OpenAI的Sora API泄露:API安全的又一次警钟

往期精彩回顾

OpenAI的Sora API泄露:API安全的又一次警钟

一图速览《数据要素化新阶段的数据基础设施白皮书》

2024-11-28

OpenAI的Sora API泄露:API安全的又一次警钟

征战网络安全“奥运会”!安恒信息斩获第四届“网鼎杯”银鼎奖

2024-11-27

OpenAI的Sora API泄露:API安全的又一次警钟

智能体驱动,安恒AiSort数据分类分级摘“新耀”入“新光”

2024-11-26

OpenAI的Sora API泄露:API安全的又一次警钟

OpenAI的Sora API泄露:API安全的又一次警钟

原文始发于微信公众号(安恒信息):OpenAI的Sora API泄露:API安全的又一次警钟

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年11月29日14:35:59
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   OpenAI的Sora API泄露:API安全的又一次警钟https://cn-sec.com/archives/3449071.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息