你以为的“删除会话”和“无痕浏览”只是自欺欺人。近日,为了应对与《纽约时报》的版权官司,OpenAI首次公开承认自5月中旬以来,一直在悄悄保存用户已删除和临时的聊天记录,事件曝光后引发众怒,一场关于AI隐私的风暴正在酝酿。
“临时聊天”是个骗局?
如果你是非常注重隐私的ChatGPT用户,你可能熟悉那个“临时聊天”模式,它类似“无痕浏览”,承诺在关闭会话后抹去一切痕迹;你也可能习惯了在左侧边栏里,通过长按或右键,将那些敏感或无用的对话历史送入“回收站”。
然而,本周,许多用户发现,这些操作可能只是营造了一种“隐私安全”的幻觉。OpenAI陷入了一场信任危机,因为它被曝出并未如约删除这些聊天记录。
“你告诉我,我删掉的ChatGPT聊天记录,实际上根本没被删除,还被存着档,等着法官来查?”X用户@ns123abc的这条帖子获得了超过百万的浏览量,字里行间充满了震惊与愤怒。
另一位用户@kepano补充道:“所以你可以‘删除’一条ChatGPT对话,但所有聊天记录都因为法律义务必须被保留?”
谁废掉了用户手中的“删除键”?
用户的愤怒并非空穴来风。OpenAI近日证实,为了响应一项联邦法院的命令,公司自2025年5月中旬以来,一直在保留用户已删除和临时的聊天数据。然而,直到6月5日,它才将这一事实公之于众,迟到了足足三周。
命令来自美国治安法官OnaT.Wang,于2025年5月13日签发。该命令要求OpenAI“保留并隔离所有本应被删除的输出日志数据”,其中明确包括用户主动删除或因隐私政策需要删除的聊天记录。
这条命令的背后,是一场持续了一年半之久的版权诉讼大战:《纽约时报》诉OpenAI和微软案。
《纽约时报》的律师们指控OpenAI的语言模型会逐字逐句地“反刍”其受版权保护的新闻内容。原告方认为,那些被用户删除的聊天记录,可能正包含了侵权的关键证据。
面对法院指令,OpenAI选择立即遵守,但对用户却保持了长久的沉默。这种“先斩后奏”的做法,无疑在用户和公司之间划开了一道深深的裂痕。
正如AI影响者和软件工程师Simon Willison在其个人博客中写道:“OpenAI的付费API客户很可能会转向其他能提供更可靠数据保留策略的供应商,而不是被这种法院命令左右的!”
OpenAI的“甩锅”与辩解
在用户声讨的声浪中,OpenAI终于站出来发声。其首席运营官Brad Lightcap在官方博客中,将矛头直指《纽约时报》和法院。
“《纽约时报》等原告在其毫无根据的诉讼中,提出了一个全面且不必要的要求:无限期保留消费级ChatGPT和API客户的数据。”Lightcap写道,“这从根本上与我们对用户的隐私承诺相冲突。”
OpenAI澄清了受影响用户的范围:
-
受影响用户:ChatGPT免费版、Plus、Pro和Team用户,以及未使用“零数据保留”(ZDR)协议的API客户。这意味着,即便你使用了临时聊天模式,或者手动删除了对话,你的记录依然会被“妥善保管”。
-
不受影响用户:ChatGPT企业版(Enterprise)、教育版(Edu)以及使用ZDR端点的API客户。这些用户的删除指令会被正常执行。
OpenAI强调,这些被保留的数据处于“法律保留”(legal hold)状态,被储存在一个安全的、隔离的系统中,只有极少数法律和安全人员可以访问。Lightcap在博文中着重表示:“这些数据不会自动与《纽约时报》或任何其他人共享。”
言下之意,OpenAI将自己定位为用户隐私的捍卫者,只是在与“霸道”的司法命令作斗争。但这套说辞能否说服用户,仍是个未知数。
Sam Altman的“AI特权”新构想
在这场风波中,OpenAI的灵魂人物、CEO Sam Altman也公开发声。他在社交网络X上写道:
“最近《纽约时报》要求法院强迫我们不得删除任何用户聊天记录。我们认为这是一个不恰当的请求,开创了一个糟糕的先例。我们正在对此决定提起上诉。我们将对抗任何损害用户隐私的要求;这是一项核心原则。”
除了表态抗争,Altman还抛出了一个更宏大的概念——“AI特权”(AI privilege)。
“我们最近一直在思考建立‘AI特权’的必要性;这次事件确实加速了相关对话的需求。”他进一步阐释,“在我看来,与AI交谈应该像与律师或医生交谈一样(享有保密特权)。”
“我希望社会能尽快解决这个问题。”
“AI特权”的概念,显然是在效仿“律师-客户特权”和“医患保密原则”,意图为用户与AI之间的交流建立一道法律上的防火墙。这不仅是为当前困境寻找出路,更像是OpenAI在为未来AI世界的游戏规则进行超前布局。
企业警钟:AI信任的基石正在动摇
尽管法院命令豁免了企业版和使用ZDR端点的ChatGPT API客户,但其广泛的法律和声誉影响,对那些在企业环境中部署和管理AI解决方案的决策者来说,无疑敲响了警钟。
负责大型语言模型(LLM)全生命周期的管理者,必须重新评估他们对数据治理的假设。当一个面向用户的AI组件会受到法律命令的约束时,一系列紧急问题随之而来:数据离开安全端点后流向了哪里?如何隔离、记录或匿名化高风险的交互?GoUpSec安全专家FunnyG建议企业安全主管重点关注以下措施:
-
API端点验证:任何接触OpenAI API的平台都必须验证使用的是ZDR还是非ZDR端点,并确保数据处理策略在用户协议、审计日志和内部文档中得到体现。
-
数据生命周期审查: 即使使用了ZDR端点,也需要审查下游系统(如分析、日志、备份系统)是否会无意中保留了那些本应是短暂的交互数据。
-
风险模型扩展:企业安全主管现在必须将“法律取证”作为一个潜在的威胁向量,纳入到风险模型中。团队需要验证,OpenAI的后端保留实践是否与内部控制和第三方风险评估相符。
最关键的是,企业用户赖以信任的“临时聊天”等功能,在法律命令下已名存实亡。这对依赖其进行敏感信息处理的企业来说,是一个巨大的潜在风险。
“AI隐私”呼唤新的社会契约
这起事件不仅仅是一场法律上的小冲突,它是AI隐私和数据权利演进过程中的一个关键“引爆点”。通过提出“AI特权”的框架,OpenAI实际上是在提议一份关于人工智能系统如何处理机密信息的新“社会契约”。
法院或立法者是否会接受这一框架尚不确定。但就目前而言,OpenAI正陷入一场艰难的平衡游戏——一边是法律合规,一边是企业承诺和用户信任。
OpenAI已对法院命令提出正式反对,要求撤销该命令。在5月27日的听证会上,法官表示该命令是临时性的,并指示双方制定一个抽样计划,以测试被删除的用户数据与保留的日志是否存在实质性差异。
当用户与机器的每一次对话都可能被永久记录在案时,我们不禁要问:在AI时代,谁才是我们数据真正的主人?这个问题,OpenAI需要回答,整个行业也需要回答。
文章来源:GoUpSec
黑白之道发布、转载的文章中所涉及的技术、思路和工具仅供以安全为目的的学习交流使用,任何人不得将其用于非法用途及盈利等目的,否则后果自行承担!
如侵权请私聊我们删文
END
原文始发于微信公众号(黑白之道):ChatGPT悄悄保留用户所有对话记录
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论