隐私监管机构敦促公司放弃情感分析人工智能软件

admin 2022年11月2日10:38:10评论34 views字数 879阅读2分55秒阅读模式

隐私监管机构敦促公司放弃情感分析人工智能软件

英国信息专员办公室 (ICO) 本周警告说,公司在部署容易出现系统性偏见和其他混乱的人工智能情感分析系统之前应该三思而后行。
监管机构补充说,如果组织继续使用并使用这种使人们处于危险之中的低于标准的技术,他们将面临调查。
旨在预测一个人的情绪和反应的机器学习算法使用计算机视觉来跟踪凝视、面部动作和音频处理来衡量变化和整体情绪。正如人们可能想象的那样,它不一定准确或公平,并且在处理用于训练和推理的数据时可能存在隐私问题。
事实上,ICO 副专员 Stephen Bonner 表示,该技术并非万无一失,导致系统性偏见、不准确或对特定社会群体的歧视。“生物识别和情感人工智能市场的发展还不成熟。它们可能还行不通,甚至永远行不通,”他在一份声明中说 
“虽然存在机会,但目前风险更大。在 ICO,我们担心对数据的不正确分析可能会导致对一个人的假设和判断不准确并导致歧视,”他的声明继续说道。
Bonner 指出,情绪分析软件通常与生物识别系统配合使用,收集和存储比面部图像更广泛的个人信息。软件提供商通常对如何处理或保存这些个人数据不透明。 
“唯一可持续的生物识别部署将是那些功能齐全、负责任并有科学支持的部署,”他说。“就目前而言,我们还没有看到任何情感人工智能技术以满足数据保护要求的方式发展,并且对该领域的比例性、公平性和透明度存在更普遍的问题。”
这似乎是一种礼貌的说法:你应该只使用能够按照 ICO 预期工作的情感阅读 AI 模型,而这些模型不存在,所以你应该停止你正在做的事情。
预计英国数据隐私监管机构将在明年春季发布一份报告,详细说明公司应如何处理生物特征数据,包括面部识别、指纹识别和语音识别。
“ICO 将继续审查市场,确定正在寻求创建或部署这些技术的利益相关者,并解释增强数据隐私和合规性的重要性,同时鼓励对这些系统如何工作的信任和信心,”Bonner 补充道。
多年来,专家们已经对情绪和情绪分析敲响了警钟。感觉是主观的,很难准确地解释它们。人类通常无法为自己或他人有效地做到这一点,更不用说机器了。

原文始发于微信公众号(网络研究院):隐私监管机构敦促公司放弃情感分析人工智能软件

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2022年11月2日10:38:10
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   隐私监管机构敦促公司放弃情感分析人工智能软件https://cn-sec.com/archives/1381976.html

发表评论

匿名网友 填写信息