如果说 2023 年和 2024 年是围绕 AI 进行探索、炒作和兴奋的一年,那么 2025 年(和 2026 年)将是各组织开始关注 AI 最有效实施的具体用例的一年,更重要的是,了解如何实施护栏和治理,以便安全团队认为它的风险较小,而对组织更有益。
别误会,很多组织已经开始在广泛的业务部门采用人工智能:
-
企业正在开发添加大型语言模型 (LLM) 功能的应用程序,以提供卓越的功能和高级个性化
-
员工正在使用第三方 GenAI 工具进行研究和提高工作效率
-
开发人员正在利用人工智能代码助手来加快编码速度并满足具有挑战性的生产期限
-
公司正在构建自己的 LLM,以满足内部用例和商业目的。
人工智能仍在成熟
然而,就像云计算和网络安全自动化等其他已发展的技术一样,人工智能目前还不够成熟。衡量技术成熟度最著名的模型之一是Gartner 炒作周期。该模型追踪工具从最初的“创新触发点”到“膨胀预期的顶峰”再到“幻灭的低谷”,接着是“启蒙斜坡”,最后达到“生产力的高原”。
按照这个模型,我将人工智能比作十年前我们目睹的云计算炒作,当时每个人都急于迁移到“云”——当时这是一个通用术语,对不同的人有不同的含义。“云”经历了炒作周期的所有阶段,我们继续寻找更具体的用例来关注以获得最大的生产力。如今,许多人正在考虑如何“正确调整”云以适应他们的环境。在某些情况下,他们会将部分基础设施迁移回本地或混合/多云模型。
目前,我们非常清楚人工智能正处于“期望膨胀的顶峰”阶段,并预测它将跌入“幻灭的低谷”,组织将意识到它并不是他们所想的灵丹妙药。事实上,已经出现了怀疑的迹象,因为决策者被来自供应商的营销信息轰炸,难以辨别什么是真正的用例,什么对他们的组织无关。随着网络安全自动化的成熟,这一主题也出现了——需要确定技术的正确用例,而不是试图全面应用它。
人工智能是一种规模函数
尽管如此,人工智能现在和将来都是一个有用的工具。在当今的经济环境中,随着企业适应不断变化的新常态,人工智能与自动化一起可以成为网络安全团队的扩展功能,使他们能够调整和扩展以抵御日益多样化的攻击。事实上,我们最近对 750 名网络安全专业人士的调查发现,58% 的组织已经在一定程度上在网络安全中使用人工智能。然而,我们确实预计,网络安全中的人工智能将经历与“云”和自动化相同的采用周期和挑战,包括信任和技术部署问题,然后才能真正发挥作用。
人们对人工智能的恐惧、不确定性和怀疑是有充分理由的。如果使用不当或人工智能模型没有发挥应有的作用,它可能会产生重大的不利影响。这种恐惧类似于网络安全专业人士对网络安全自动化的看法。我们之前对自动化采用进行的研究表明,人们对自动化结果缺乏信任,但我们刚刚发表的最新研究表明,随着自动化的成熟,人们的信心会增强。
这就是为什么许多组织正在成立指导委员会,以更好地了解不同业务部门对人工智能的使用情况。还有一些法规即将生效,例如《欧盟人工智能法案》,这是一个全面的法律框架,规定了人工智能的开发和使用规则。
了解正在共享哪些数据
对于安全领导者来说,这是一个基本问题,即确定谁在使用 AI 工具以及他们使用 AI 的目的。他们与外部工具共享哪些公司数据,这些工具是否安全,它们是否像看上去那么无害?例如,开发人员正在使用的 GenAI 代码助手是否会返回错误代码并带来安全风险?然后还有像Dark AI这样的方面,它涉及恶意使用 AI 技术来促进网络攻击、幻觉和数据中毒,当输入恶意数据来操纵代码时,这可能会导致做出错误的决策。
到目前为止,Splunk 对首席信息安全官 (CISO) 进行的一项调查 ( PDF ) 发现,70% 的人认为生成式 AI 可能会给网络对手带来更多攻击机会。当然,普遍的观点是,AI 给攻击者带来的好处比防御者多。
找到正确的平衡
因此,我们对人工智能的态度是采取平衡的观点。人工智能当然不会解决所有问题,它应该像自动化一样被使用,作为人员、流程和技术协作组合的一部分。你根本无法用人工智能取代人类的直觉,许多新的人工智能法规规定必须保持人类监督,因此关键在于找到正确的平衡,在正确的场景中为正确的用例使用技术,并获得所需的结果。
展望未来,随着企业对 AI 用例的理解越来越深入,AI 将从常规的 Gen AI 发展到融入其他技术。迄今为止,生成式 AI 应用程序主要关注信息的发散。也就是说,它们根据一组指令创建新内容。随着 AI 的发展,我们相信我们将看到更多融合信息的 AI 应用程序。换句话说,它们将通过合成可用信息向我们展示更少的内容,行业专家恰如其分地称之为“SynthAI”。这将为 AI 能够提供的价值带来阶跃变化——我将在以后的文章中讨论这个问题。
原文始发于微信公众号(河南等级保护测评):人工智能——根据正确的用例实施正确的技术
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论