即使我们并不总是有意识地意识到这一点,人工智能现在已无处不在。我们已经习惯了电子商务中的个性化推荐系统、由对话式人工智能驱动的客户服务聊天机器人等等。在信息安全领域,多年来我们一直依赖人工智能驱动的垃圾邮件过滤器来保护我们免受恶意电子邮件的侵害。
这些都是成熟的用例。然而,自过去几年生成式人工智能的迅猛发展以来,机器已经能够做更多的事情。从威胁检测到事件响应自动化,再到通过模拟网络钓鱼电子邮件测试员工意识,人工智能在网络安全领域的机会是无可争议的。
但任何新机遇都伴随着新风险。威胁者现在正在使用人工智能发起更具说服力的网络钓鱼攻击,其规模是以前不可能的。为了领先于威胁,防御者也需要人工智能,但其使用必须透明,并以道德为中心,以避免陷入灰帽战术的境地。
现在是信息安全领导者采取负责任的人工智能战略的时候了。
在人工智能安全工具中平衡隐私和安全
犯罪是人类的问题,网络犯罪也不例外。包括生成式人工智能在内的技术只是攻击者武器库中的另一种工具。合法公司利用从互联网上抓取的大量数据来训练他们的人工智能模型。这些模型不仅经常以数百万真人的创造性成果为训练基础,还可能有意或无意地获取最终进入公共领域的个人信息。因此,一些最大的人工智能模型开发商现在面临诉讼,而整个行业也面临监管机构越来越多的关注。
虽然威胁行为者并不关心人工智能伦理,但合法公司很容易在不知不觉中做同样的事情。例如,网络抓取工具可用于收集训练数据,以创建检测网络钓鱼内容的模型。然而,这些工具可能不会区分个人信息和匿名信息——尤其是在图像内容的情况下。图像的 LAION 或文本的 The Pile 等开源数据集也存在类似的问题。例如,2022 年,一位加州艺术家发现她的医生拍摄的私人医疗照片出现在用于训练流行的开源图像合成器 Stable Diffusion 的 LAION-5B 数据集中。
不可否认的是,粗心地开发网络安全垂直化 AI 模型可能比根本不使用 AI 带来更大的风险。为了防止这种情况发生,安全解决方案开发人员必须保持最高的数据质量和隐私标准,特别是在匿名化或保护机密信息方面。欧洲的《通用数据保护条例》(GDPR)和《加州消费者隐私法案》(CCPA)等法律虽然是在生成式 AI 兴起之前制定的,但却是制定道德 AI 战略的宝贵指南。
强调隐私
早在生成式人工智能兴起之前,各公司就一直在使用机器学习来检测安全威胁和漏洞。基于自然语言处理 (NLP)、行为和情绪分析以及深度学习的系统在这些用例中都已得到充分认可。但它们也带来了道德难题,隐私和安全可能成为相互竞争的学科。
例如,假设一家公司使用人工智能监控员工的浏览历史,以检测内部威胁。虽然这可以增强安全性,但也可能涉及获取员工希望保密的个人浏览信息(例如医疗搜索或金融交易)。
隐私也是物理安全方面的一个问题。例如,人工智能驱动的指纹识别可能会阻止未经授权访问敏感站点或设备,但它还涉及收集高度敏感的生物特征数据,这些数据如果被泄露,可能会给相关个人带来长期问题。毕竟,如果你的指纹数据被黑客入侵,你就无法获得新的手指。这就是为什么生物识别系统必须处于最高安全级别,并有负责任的数据保留政策作为后盾。
让人类参与决策问责
关于人工智能,最重要的一点或许是,就像人类一样,人工智能也会以各种不同的方式犯错。采用合乎道德的人工智能战略的核心任务之一是 TEVV,即测试、评估、验证和确认。在网络安全这样的关键任务领域尤其如此。
人工智能带来的许多风险在开发过程中显现出来。例如,训练数据必须经过彻底的 TEVV 以确保质量,并确保其未被操纵。这一点至关重要,因为数据中毒现在是更老练的网络犯罪分子部署的头号攻击媒介之一。
人工智能的另一个固有问题是偏见和公平性,就像它对人类一样。例如,用于标记恶意电子邮件的人工智能工具可能会将合法电子邮件作为目标,因为它们显示出通常与特定文化群体相关的方言迹象。这导致不公平的分析和针对特定群体,引发人们对采取不公正行动的担忧。
人工智能的目的是增强人类智能,而不是取代人类智能。如果出现问题,机器不能承担责任。重要的是要记住,人工智能会按照人类的训练去做。正因为如此,人工智能继承了人类的偏见和糟糕的决策过程。许多人工智能模型的“黑箱”性质也使得识别这些问题的根本原因变得异常困难,因为最终用户无法了解人工智能如何做出决策。这些模型缺乏可解释性,而可解释性对于实现人工智能驱动的决策的透明度和可问责性至关重要。
将人类利益置于人工智能发展的核心位置
无论是在网络安全还是其他任何情况下开发或使用人工智能,在整个过程中让人类参与进来都至关重要。训练数据必须由多元化和包容性的团队定期审核,并进行改进以减少偏见和错误信息。虽然人类自己也容易遇到同样的问题,但持续的监督和解释人工智能如何得出结论的能力可以大大降低这些风险。
另一方面,如果简单地将人工智能视为一条捷径和人类的替代品,那么必然会导致人工智能以自己的方式发展,根据自己的输出进行训练,以至于只会放大自己的缺点——这一概念被称为人工智能漂移。
人类在保护人工智能和对其采用和使用负责方面的作用不容小觑。这就是为什么公司不应该将人工智能作为减少员工数量和节省资金的一种方式,而应该将所有节省下来的资金投入到重新培训和将团队转变为新的与人工智能相关的角色上。这意味着所有信息安全专业人员都必须把道德使用人工智能(以及人)放在首位。
原文始发于微信公众号(祺印说信安):网络安全中人工智能的伦理问题
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论