安全跟我学|人工智能安全风险治理探究

admin 2023年11月20日22:34:50评论2 views字数 2171阅读7分14秒阅读模式


安全跟我学|人工智能安全风险治理探究


以ChatGPT为代表的新的人工智能时代已到来,通过与人的交互式对话,不断学习和理解人类语言等,为社会各界提供了解决问题的新选择。然而,ChatGPT也面临如伦理失范、价值失衡以及技术异化的风险,引发了应用忧虑。



ChatGPT的关键技术

1.预训练语言模型

ChatGPT是基于Transformer架构开发而来的一种预训练语言模型,同时在大型人类生成文本数据集上实施预训练。其中,模型会逐一预测输入的序列词汇,以此学习和掌握上下文及语言统计规律。通过使用无监督学习算法来对大规模文本数据集实施训练,理解词句间的关联性,完成上下文理解、语义推理并生成回复。


2.强化学习算法(RLHF)

RLHF融合了人类智慧与机器学习的优势,可以在复杂的任务中具有良好表现,有效解决复杂问题,确保良好的系统性能以及较高的智能水平。生成对话与人类反馈,是该技术的重要组成部分。ChatGPT依据历史对话及上下文来做出语句回复,作为对使用者的回应。


3.指令微调(IFT)

    IFT主要是在预训练模型基础上,使用特定任务数据集来训练模型以得到适应任务实施需要的过程。在此过程中,多会对预训练模型的参数加以微调,以具备更好理解和处理特定任务中语言信息的能力,最终实现整个模型表现力的提升。


人工智能的安全风险

1.伦理失范的风险

伴随着人工智能的不断发展,演算法与机器学习日益复杂。然而,在这未知的数码领域里,并不能够精准有效地探知与把握安全的界限。现如今,在处理风险定义与追责问题过程中,常规的技术伦理以及法律规范等显然已力不从心。虽然说设计人员对风险负有首要义务,但如果完全将算法程序所引发的伦理失范责任归咎于设计人员,并不科学。新时期,人工智能迅猛发展且广泛应用于诸多领域之中,由此所引发的无法判决的法律争议也会越来越多,问责两难的情况本身就是一种伦理风险危机。


2.价值失衡的风险

人工智能同样不可避免地存在算法黑箱,一些设计与开发人员往往会在算法体系中加入自己的认知偏见,进而直接导致了算法的偏见与歧视,丢失了公众价值观,在技术工具和技术价值理性间失衡。另外,人工智能能够解放生产力,实现智能化发展,或代替完成一些脏累差的工作等,但是并不是所有人都能够在人工智能ChatGPT下谋得新工作,很多人并不能够通过技术差异来应对工作中的新变化。


3.技术异化的风险

人工智能技术的发展与应用,为人类生产生活带来诸多便利,但如果过度依赖或无限制开发人工智能技术,又面临着技术异化的风险。基于人工智能,信息推送更加精准化与个性化,但也会因此影响人们对信息的理解与判断,特别是导致学生信息偏好及识别能力的下降。另外,也要警惕人工智能技术对社会治理的过度影响和干预。虽然强如ChatGPT这样的智能机器人现如今还处于弱化状态,未对社会管理构成威胁,但随着今后强大或超级人工智能的发展,对于人类统治与社会治理无疑是巨大挑战。


人工智能安全风险治理策略

ChatGPT广泛应用先进的人工智能技术,备受关注且应用广泛,在创建3D动画、修复编码错误等诸多方面,都表现出惊人力量。但凡事都有两面性,人工智能安全风险同样不容忽视,必须创新跟进相应的治理策略。


1.实施自动化响应

当前,ChatGPT所带来的网络安全隐患不容忽视,应用ChatGPT等人工智能工具为不法分子提供了便利,大大降低了网络犯罪的门槛。虽然ChatGPT具有质疑错误前提和拒绝不当请求的能力,但经调整仍然会生成高水准的钓鱼邮件和鱼叉式钓鱼信息。可以说,当前的黑客技术更加智能和先进,特别是在人工智能驱动的攻击逐渐成为常态的背景下,要应对威胁和对抗人工智能驱动的攻击,就必须要采用智能化手段,实施自动化响应。同样应用人工智能技术,具备在无需人类干预的情况下有效抵制和解决安全风险的能力。借助人工智能和机器学习等新兴技术,实现自动化响应,为网络安全保驾护航。


2.加强数据的安全

在新时期大数据时代下,数据是重要资产,其重要性不言而喻。为加强人工智能安全风险治理,就必须要关注数据安全问题。为防止数据被泄露,可以采用密码学、加密算法等安全技术,确保数据信息的机密、完整以及可用。与此同时,也要加强技术的更新和应用,比如区块链技术,可发挥底层基础设施作用。该技术具有分布式、去中心化以及不可篡改等优势功能,作为一个可信的数据交换以及管理平台,用以实现数据确权、交易和共享,能够有效保障人工智能下的用户隐私。


3.开展协同化治理

在人工智能持续发展的今天,特别是ChatGPT的出现和应用,大众认知可谓喜忧参半。不得不说,人工智能安全风险的防范与治理是一个系统而复杂的问题,需要开展协同化治理,基于目标一致的各个子系统之间的协同来生成合力,以有效化解人工智能安全风险。具体来讲,一是要建立安全风险协同治理机制,包括政府、技术专家、社会组织、科研机构以及社会大众等多主体参与和民主磋商,还要形成自我管理体系;二是要强化安全风险协同治理条件,警惕技术风险,加强技术伦理规范,健全相关法律及规章制度等;三是要提升安全风险协同治理参数,建立健全技术风险管理的协调与合作、技术风险评估体系以及技术风险治理的社会组织。


来源:《网络安全和信息化》杂志

(本文不涉密)

-END-
安全跟我学|人工智能安全风险治理探究
欢迎关注我们~

安全跟我学|人工智能安全风险治理探究

原文始发于微信公众号(网络安全和信息化):安全跟我学|人工智能安全风险治理探究

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年11月20日22:34:50
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   安全跟我学|人工智能安全风险治理探究https://cn-sec.com/archives/2224387.html

发表评论

匿名网友 填写信息