据 Cybernews 最近报道,加利福尼亚州正在推动立法,针对大型人工智能(AI)模型的公司进行强制安全测试。对此,有业内人士表示恐慌,表示此举可能会对AI创新带来巨大冲击。
根据最新的人工智能安全法案--参议院第 1047 号法案,花费超过 1 亿美元训练大型人工智能模型的公司将被迫进行彻底的安全测试。如果企业不这样做,其系统一旦导致 “大规模损失事件”或单次事故损失超过 5 亿美元,企业将承担责任。
业界对此表示不满。例如,HuggingFace 公司首席执行官Clement Delangue称该法案是对加州和美国创新的“巨大打击”。科技行业组织 TechNet 则主张谨慎行事,其表示在立法方面行动过快可能会扼杀创新。
然而,科技伦理和算法责任专家Gemma Galdon Clavell在接受《网络新闻》的一次采访时表示,事实并非如此--对细节的充分关注是人工智能行业赢得人们信任的唯一途径。
作为一家专注于人工智能审计的软件公司 Eticas.ai 的创始人兼首席执行官,Galdon Clavell 不断重复着这句话:你无法编码一个你不了解的社会。
加利福尼亚州的科技公司正在抵制人工智能安全倡议,这与欧盟围绕人工智能法案的讨论遥相呼应。无论在哪个环境,科技公司都在反对更严格的监管、安全测试和审计。他们声称所有这些举措都会损害创新。事实真的如此吗?
在西方的民主国家主要采用资本主义的经济制度,资本是没有上限的,它带来了许多繁荣,因为它设法在创新和保护之间取得了平衡。
在制药业,不会有人认为临床试验会损害他们的创新。每个人都明白,经过临床试验的疫苗会更稳定、更可靠。同理,没人会认为没有安全带的汽车比有安全带的汽车更好。
创新是必要的,但也需要包含保护性的内容,这几乎适用于所有行业。从根本上说,西方的经济体系是建立在只要不造成伤害就能赚大钱的理念之上。西方市场对产品的唯一的要求是,在向市场推出之前,必须展示并证明其不会造成伤害。无论是玩具制造商、食品供应商和制药业,这个法则在所有行业都成立。
然而,科技行业却表示,监管会阻碍创新。并非科技行业的创新就一定会促进社会的快速进步,每个行业都在创新,但每个行业都需要遵守一些基本规则。
创新是在一系列限制条件下做值得做的事情。造一架不用对抗地心引力的飞机毫无意义,真正有意义的创新是让飞机在重力条件下飞起来。
监管也是一样。在尊重人民权利的条件下,如何才能做出好的AI算法?这是创新的价值,而不是为了创新而创新。
在过去的一两年里,自从整个 ChatGPT 热潮开始以来,政客们,尤其是左翼政客们,一直被批评对社交媒体公司的打击力度不够,现在他们正试图更加积极地打击大科技公司。这或许代表一种趋势,一种在更敏感问题上大声说话的趋势。在当下的美国,决策者和社会都有了更多的意识,动态的对话日益明显。
人工智能和科技行业的大多数公司都倾向于建立垄断,这使他们无法真正探索什么能为品牌带来价值,与客户建立信任,并为自己而非他人带来利益。
在任何领域,不具备信任就不会得到广泛采用。如果我们想广泛采用人工智能工具,信任是一个先决条件。在美国,越来越多的参与者意识到了这一点。
苹果公司一直将隐私保护作为其产品价值的主要因素之一。现在,OpenAI 和 Anthropic 正以大型语言模型(LLM)的“苹果公司”自居,并表示他们真正关心隐私。类似的竞争越来越多。
目前,人工智能仍处于起步阶段,但可以肯定的是,美国各个阶层的意识都在提高,在未来几个月和几年里,开发人工智能和评估人工智能是否有效的方式会发生很大变化。
或许在几年以后,我们会发现在2023年或2024年竟然能够使用未经审计的人工智能,就像此前在美国的街头药店就可以购买违禁品一样。
有些人仍然认为,整个人工智能话题被过度炒作了,并说我们在和“万用灵药”打交道。即使Sam Altman(OpenAI创始人)等科技大咖在讨论AI大模型的安全性,他们也会尝试做一些冒险,并很可能在未经过彻底测试或审核的情况下大范围应用。
正因为如此,审计这样的工具才如此重要,它可以区分骗子和那些真正采取实际措施确保其技术更好的人。
“万用灵药”是必然存在的,在当下,它们主要集中在大语言模型上。但也有其他人工智能领域,如智能推荐系统等。在讨论人工智能中的偏见和责任时,我们发现经过审计的人工智能是更好的人工智能。它能更好地工作,做出更好的决策。
如果不审计人工智能系统,AI很可能会做出错误的决定。例如把贷款给了不应该获得贷款的人;把工作机会给了不是最佳候选的人;给不需要接受特定癌症治疗的人提供癌症治疗等等。
对人工智能和负责任的人工智能进行审计是有必要的,这将会为行业带来更大的变化。不能指望企业能够自我约束,即便部分企业采用了独立审计的方式确保其AI系统的安全性,也会因审计行业的约束难以保障安全。即便是谷歌、Meta 或亚马逊这样的大型企业,也会受到一次又一次的审计。
许多公司都在试图纳入更多的人工智能治理软件,确保人工智能的可用性,但这并不能带来真正的价值。人工智能审计师表示,(此举)更像是一种表面文章。人工智能审计不仅是评估风险和派专人监督风险,它还需要有数据来证明你的系统没有造成伤害(例如对女性或有色人种)。
现在的问题是,审计人员还未能将这些问题清晰地转化为数据,审计仍然被合规团队所占据,
强大的人工智能系统或模型可能会带来灾难性的危险,但也有人认为过于夸大其词。实际上大语言模型并不一定会造成非常严重的损害,AI给人类带来的危险还有更远。
当你拥有基于相关性的大型语言模型时,可能会误认为通过大量的相关性,因果关系就会出现。实际上,这是完全没有道理的逻辑跳跃。对于人工智能来说“跑”和“飞”不是一回事。
第一波自动化浪潮带走了一些工作,这是因为这些工作本身就可以被机器人完成。现在,人工智能正在威胁艺术--创意写作、绘画和动画。在人工智能诞生以前,我们会幻想让人工智能扫地洗衣,人来绘画和写作,但现在完全相反。
人工智能创作的艺术能被称之为艺术吗?人工智能审计师表示,或许有人会认为是艺术,但她不这么看。她表示,诗歌等艺术是人类体验的表达。西班牙某北部城市被纳粹摧毁,毕加索为此制作了著名画作《格尔尼卡》。这意味着,艺术是人类生活的表现,AI或许能复刻,但代表不了人类。
很多新技术在诞生时,都会有人鼓吹说技术会改变一切。但并非所有技术都能做到这一点,实际上,大多数技术最终只是改变了一点点。在无人机诞生时,人们认为这会改变人类的交通方式,改变城市面貌,但现在,无人机只能在农村地区修复电线,或是送快递等等。
区块链和加密货币本应改变经济,让国家经济将变得无能为力。但它们并没有表现出那种革命性的作用,而是成为炒币的工具。
科技行业往往做出了非常大的承诺,但它们是靠风险资本家(VC)的钱吃饭的。对于个人来说,过度相信科技行业的承诺,只会受到伤害。
人工智能和战争是技术可能变得不可预测和残酷的两个领域。如果人类被排除在外,战争只能由机器发动,会发生什么?
如果我们让人工智能系统自己做决定——它们是根据过去的模式来做决定的——我们就会得到很多非常糟糕的决定。在战争中,我们可能会选择错误的目标。
我们有专门针对减少错误的法律框架,我们在第二次世界大战后制定的一切措施都是为了保护人的生命。
国家可以向其他国家、地区和组织宣战,但需要尽量减少错误和平民伤亡。人工智能在这方面并不擅长。如果我们看到人工智能被用于军事行动,10 年或 15 年后,大部分人类将因反人类罪而入狱。
在研究自主决策的人工智能系统时,我们需要更多地讨论错误率。我们无法控制错误率、假阳性或假阴性。
如果没有更多的透明度--这正是通过审计可以获得的--你就不应该使用这些工具。如果你不能保证被这些工具锁定的人是需要被锁定的人,而且是可以被合法锁定的人,你就不应该部署这些工具。
我们现在看到了非常多未经审计的人工智能。例如,我们已经对刑事司法系统中的人工智能工具进行了审计,这些工具可以决定某人是否可以离开监狱,因为他们不再是危险人物。这是一个非常敏感的决定。但即使我们审计的是相当简单的部署模型,我们发现它们绝对是随机的。
没有健全的决策方式时,这些自动化系统做出的决策就会变得随机。
如果没有审计,我们甚至不会意识到我们造成了这种情况。这就好比我们批准了可以飞行的飞机,却不知道它们会不会从天上掉下来。审计让我们能够掌握人工智能方面的信息,我们可以看到发生了什么。
在人工智能战争领域,国外的研发者如果正在开发人工智能系统,作为决策者,我们可能无法再兼顾安全和开发进程。但实际上并非如此,监管竞争才是当前的重点,而非军备竞争。
中国对人工智能的监管比美国更有力。那些争夺全球尊重的国家也在争相为人工智能系统设置防护栏。当各国在全球舞台上角逐时,它们往往希望获得影响力,中国在过去为世界各地的发展作出了显著贡献,这是建立技术信任的前提。
没有信任,就没有广泛的应用,而审计就是建立信任的重要环节。
Gintaras Radauskas
二十年前,Gintaras Radauskas在大学学习媒体研究时开始从事记者工作,报道体育新闻,之后转而报道外国新闻、国际政治和立陶宛外交政策。他曾在国家日报《Lietuvos Rytas》担任记者和编辑,之后转到新闻网站 15min 工作。
原文始发于微信公众号(安在):安全只会扼杀AI的潜力?答案恐非如此
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论