安全只会扼杀AI的潜力?答案恐非如此

admin 2024年8月1日19:48:01评论8 views字数 4008阅读13分21秒阅读模式

安全只会扼杀AI的潜力?答案恐非如此

制药行业不会认为临床试验会损害他们的创新。科技政策分析师Gemma Galdón-Clavell在接受《网络新闻》采访时表示,不知何故,开发生成式人工智能模型的科技大咖们却这么认为。

据 Cybernews 最近报道,加利福尼亚州正在推动立法,针对大型人工智能(AI)模型的公司进行强制安全测试。对此,有业内人士表示恐慌,表示此举可能会对AI创新带来巨大冲击。

根据最新的人工智能安全法案--参议院第 1047 号法案,花费超过 1 亿美元训练大型人工智能模型的公司将被迫进行彻底的安全测试。如果企业不这样做,其系统一旦导致 “大规模损失事件”或单次事故损失超过 5 亿美元,企业将承担责任。

业界对此表示不满。例如,HuggingFace 公司首席执行官Clement Delangue称该法案是对加州和美国创新的“巨大打击”。科技行业组织 TechNet 则主张谨慎行事,其表示在立法方面行动过快可能会扼杀创新。

然而,科技伦理和算法责任专家Gemma Galdon Clavell在接受《网络新闻》的一次采访时表示,事实并非如此--对细节的充分关注是人工智能行业赢得人们信任的唯一途径。
作为一家专注于人工智能审计的软件公司 Eticas.ai 的创始人兼首席执行官,Galdon Clavell 不断重复着这句话:你无法编码一个你不了解的社会。

安全只会扼杀AI的潜力?答案恐非如此

创新需要结合安全

加利福尼亚州的科技公司正在抵制人工智能安全倡议,这与欧盟围绕人工智能法案的讨论遥相呼应。无论在哪个环境,科技公司都在反对更严格的监管、安全测试和审计。他们声称所有这些举措都会损害创新。事实真的如此吗?

在西方的民主国家主要采用资本主义的经济制度,资本是没有上限的,它带来了许多繁荣,因为它设法在创新和保护之间取得了平衡。

在制药业,不会有人认为临床试验会损害他们的创新。每个人都明白,经过临床试验的疫苗会更稳定、更可靠。同理,没人会认为没有安全带的汽车比有安全带的汽车更好。

创新是必要的,但也需要包含保护性的内容,这几乎适用于所有行业。从根本上说,西方的经济体系是建立在只要不造成伤害就能赚大钱的理念之上。西方市场对产品的唯一的要求是,在向市场推出之前,必须展示并证明其不会造成伤害。无论是玩具制造商、食品供应商和制药业,这个法则在所有行业都成立。

然而,科技行业却表示,监管会阻碍创新。并非科技行业的创新就一定会促进社会的快速进步,每个行业都在创新,但每个行业都需要遵守一些基本规则。

创新是在一系列限制条件下做值得做的事情。造一架不用对抗地心引力的飞机毫无意义,真正有意义的创新是让飞机在重力条件下飞起来。

监管也是一样。在尊重人民权利的条件下,如何才能做出好的AI算法?这是创新的价值,而不是为了创新而创新。

在过去的一两年里,自从整个 ChatGPT 热潮开始以来,政客们,尤其是左翼政客们,一直被批评对社交媒体公司的打击力度不够,现在他们正试图更加积极地打击大科技公司。这或许代表一种趋势,一种在更敏感问题上大声说话的趋势。在当下的美国,决策者和社会都有了更多的意识,动态的对话日益明显。

人工智能和科技行业的大多数公司都倾向于建立垄断,这使他们无法真正探索什么能为品牌带来价值,与客户建立信任,并为自己而非他人带来利益。

在任何领域,不具备信任就不会得到广泛采用。如果我们想广泛采用人工智能工具,信任是一个先决条件。在美国,越来越多的参与者意识到了这一点。

苹果公司一直将隐私保护作为其产品价值的主要因素之一。现在,OpenAI 和 Anthropic 正以大型语言模型(LLM)的“苹果公司”自居,并表示他们真正关心隐私。类似的竞争越来越多。

安全只会扼杀AI的潜力?答案恐非如此

目前,人工智能仍处于起步阶段,但可以肯定的是,美国各个阶层的意识都在提高,在未来几个月和几年里,开发人工智能和评估人工智能是否有效的方式会发生很大变化。

或许在几年以后,我们会发现在2023年或2024年竟然能够使用未经审计的人工智能,就像此前在美国的街头药店就可以购买违禁品一样。

行业将发生变化

有些人仍然认为,整个人工智能话题被过度炒作了,并说我们在和“万用灵药”打交道。即使Sam Altman(OpenAI创始人)等科技大咖在讨论AI大模型的安全性,他们也会尝试做一些冒险,并很可能在未经过彻底测试或审核的情况下大范围应用。

正因为如此,审计这样的工具才如此重要,它可以区分骗子和那些真正采取实际措施确保其技术更好的人。

“万用灵药”是必然存在的,在当下,它们主要集中在大语言模型上。但也有其他人工智能领域,如智能推荐系统等。在讨论人工智能中的偏见和责任时,我们发现经过审计的人工智能是更好的人工智能。它能更好地工作,做出更好的决策。

如果不审计人工智能系统,AI很可能会做出错误的决定。例如把贷款给了不应该获得贷款的人;把工作机会给了不是最佳候选的人;给不需要接受特定癌症治疗的人提供癌症治疗等等。

对人工智能和负责任的人工智能进行审计是有必要的,这将会为行业带来更大的变化。不能指望企业能够自我约束,即便部分企业采用了独立审计的方式确保其AI系统的安全性,也会因审计行业的约束难以保障安全。即便是谷歌、Meta 或亚马逊这样的大型企业,也会受到一次又一次的审计。

许多公司都在试图纳入更多的人工智能治理软件,确保人工智能的可用性,但这并不能带来真正的价值。人工智能审计师表示,(此举)更像是一种表面文章。人工智能审计不仅是评估风险和派专人监督风险,它还需要有数据来证明你的系统没有造成伤害(例如对女性或有色人种)。

现在的问题是,审计人员还未能将这些问题清晰地转化为数据,审计仍然被合规团队所占据,

安全只会扼杀AI的潜力?答案恐非如此

人工智能的生存威胁并非真实存在

强大的人工智能系统或模型可能会带来灾难性的危险,但也有人认为过于夸大其词。实际上大语言模型并不一定会造成非常严重的损害,AI给人类带来的危险还有更远。

当你拥有基于相关性的大型语言模型时,可能会误认为通过大量的相关性,因果关系就会出现。实际上,这是完全没有道理的逻辑跳跃。对于人工智能来说“跑”和“飞”不是一回事。

第一波自动化浪潮带走了一些工作,这是因为这些工作本身就可以被机器人完成。现在,人工智能正在威胁艺术--创意写作、绘画和动画。在人工智能诞生以前,我们会幻想让人工智能扫地洗衣,人来绘画和写作,但现在完全相反。

人工智能创作的艺术能被称之为艺术吗?人工智能审计师表示,或许有人会认为是艺术,但她不这么看。她表示,诗歌等艺术是人类体验的表达。西班牙某北部城市被纳粹摧毁,毕加索为此制作了著名画作《格尔尼卡》。这意味着,艺术是人类生活的表现,AI或许能复刻,但代表不了人类。

安全只会扼杀AI的潜力?答案恐非如此

很多新技术在诞生时,都会有人鼓吹说技术会改变一切。但并非所有技术都能做到这一点,实际上,大多数技术最终只是改变了一点点。在无人机诞生时,人们认为这会改变人类的交通方式,改变城市面貌,但现在,无人机只能在农村地区修复电线,或是送快递等等。

区块链和加密货币本应改变经济,让国家经济将变得无能为力。但它们并没有表现出那种革命性的作用,而是成为炒币的工具。

科技行业往往做出了非常大的承诺,但它们是靠风险资本家(VC)的钱吃饭的。对于个人来说,过度相信科技行业的承诺,只会受到伤害。

人工智能和战争是技术可能变得不可预测和残酷的两个领域。如果人类被排除在外,战争只能由机器发动,会发生什么?

如果我们让人工智能系统自己做决定——它们是根据过去的模式来做决定的——我们就会得到很多非常糟糕的决定。在战争中,我们可能会选择错误的目标。

我们有专门针对减少错误的法律框架,我们在第二次世界大战后制定的一切措施都是为了保护人的生命。

国家可以向其他国家、地区和组织宣战,但需要尽量减少错误和平民伤亡。人工智能在这方面并不擅长。如果我们看到人工智能被用于军事行动,10 年或 15 年后,大部分人类将因反人类罪而入狱。

在研究自主决策的人工智能系统时,我们需要更多地讨论错误率。我们无法控制错误率、假阳性或假阴性。

如果没有更多的透明度--这正是通过审计可以获得的--你就不应该使用这些工具。如果你不能保证被这些工具锁定的人是需要被锁定的人,而且是可以被合法锁定的人,你就不应该部署这些工具。

我们现在看到了非常多未经审计的人工智能。例如,我们已经对刑事司法系统中的人工智能工具进行了审计,这些工具可以决定某人是否可以离开监狱,因为他们不再是危险人物。这是一个非常敏感的决定。但即使我们审计的是相当简单的部署模型,我们发现它们绝对是随机的。

没有健全的决策方式时,这些自动化系统做出的决策就会变得随机。

如果没有审计,我们甚至不会意识到我们造成了这种情况。这就好比我们批准了可以飞行的飞机,却不知道它们会不会从天上掉下来。审计让我们能够掌握人工智能方面的信息,我们可以看到发生了什么。

在人工智能战争领域,国外的研发者如果正在开发人工智能系统,作为决策者,我们可能无法再兼顾安全和开发进程。但实际上并非如此,监管竞争才是当前的重点,而非军备竞争。

中国对人工智能的监管比美国更有力。那些争夺全球尊重的国家也在争相为人工智能系统设置防护栏。当各国在全球舞台上角逐时,它们往往希望获得影响力,中国在过去为世界各地的发展作出了显著贡献,这是建立技术信任的前提。

没有信任,就没有广泛的应用,而审计就是建立信任的重要环节。

原文链接:
https://cybernews.com/editorial/tech-auditing-expert-ai-regulation-interview/
原文作者:

安全只会扼杀AI的潜力?答案恐非如此

Gintaras Radauskas

二十年前,Gintaras Radauskas在大学学习媒体研究时开始从事记者工作,报道体育新闻,之后转而报道外国新闻、国际政治和立陶宛外交政策。他曾在国家日报《Lietuvos Rytas》担任记者和编辑,之后转到新闻网站 15min 工作。

原文始发于微信公众号(安在):安全只会扼杀AI的潜力?答案恐非如此

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年8月1日19:48:01
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   安全只会扼杀AI的潜力?答案恐非如此https://cn-sec.com/archives/3023887.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息