当前人工智能(AI)功能在不断增强和复杂化,这一趋势对于那些运用生成式AI技术的首席信息安全官(CISO)来说更加显著。网络安全供应商正面临着利用生成式AI来降低失败风险的挑战。此外,攻击策略的演变、AI的武器化,以及社交工程手段的应用,已经导致多家全球领先企业遭遇重大挫折。
日前,专业IT媒体VentureBeat采访了多位资深网络安全专家,听取他们对2024年生成式AI技术将会如何影响网络安全发展的预测。专家们普遍认为:尽管生成式AI技术会降低网络犯罪的进入门槛,升级企业现有的风险态势,但同时也会给企业网络安全建设带来很大帮助,AI专业人员和网络安全团队应该寻求更加紧密的合作。
1、“生成式AI技术应用正在带来新的安全盲区”
——CrowdStrike首席技术官Elia Zaitsev
2024年,我们预计,攻击者会把AI系统作为攻击的重点目标,并视其为一种新的威胁利用途径。通过合法AI应用系统中的安全漏洞,以及员工未经批准使用的影子AI工具带来的安全盲区,攻击者可以更容易地攻击组织。防护AI技术的安全性盲区,企业安全团队仍处于早期阶段,这些盲区和新技术为企图攻击企业的恶意人员打开了大门,这迫使企业组织必须尽快面对新的数据安全风险。
因此,企业组织在2024年需要重新审视内部威胁,了解AI技术引入的各个环节,评估其风险状况,并制定相应的防护指导方针,以确保安全负责地使用,尽量降低企业风险和安全支出,同时实现其应用价值的最大化。
2、“组织的网络安全防护工作不能过度依赖AI”
——CyCognito首席执行官Rob Gurzeev
我始终认为,生成式AI技术会对企业的网络安全防护工作产生积极影响,但是有一个重要问题需要强调,就是AI技术可能让企业的安全运营团队变得过于自负。2024年,如果企业组织过度依赖AI技术,就可能导致组织的日常安全运营缺乏监管,这就很容易导致在攻击面管理上出现缺口。
3、“生成式AI日趋成熟,能够帮助企业加强安全防御”
——Cyberhaven首席执行官Ting Howard
Cyberhaven得到的数据显示,4.7%的员工曾将机密数据输入到ChatGPT中,其中11%的数据是敏感数据。但我确实认为,局面最终会好转。随着大语言模型(LLM)和生成式AI 日趋成熟,安全团队将能够用它们来加强防御。生成式AI大有潜力帮助安全团队处理目前难以处理的大量事件数据。传统的数据湖和基础的SIEM侧重收集数据,而更注重对话的界面可以大大提高用途。
4、“生成式AI技术将成为闭环OT防御的有效方法”
——霍尼韦尔互联企业首席技术官Jason Urso
关键基础设施一直是网络攻击者的主要攻击目标。但这些攻击要求很高的专业性,需要极其复杂的手法,并不是普通黑客就能够具备的。为了更有效地对抗专业网络攻击者,我认为生成式AI技术将会在2024年成为闭环OT防御的一种有效方法,这种防御能够实时基于威胁格局方面的变化,动态改变安全配置和防御规则,并执行自动渗透测试以标注面临风险的变化。
5、“可靠的生成式AI应用需要由人来监管”
——Ivanti首席产品官Srinivas Mukkamala
2024年,随着ChatGPT被广泛应用,很多人开始担心生成式AI技术会对其职业生涯产生影响。根据我们的市场研究发现,近三分之二受访IT员工担心生成式AI在未来五年内将取代其工作。因此,企业管理者需要向员工明确阐述计划如何实施AI,以便稳定现有的人才团队。需要指出的是,可靠的AI技术应用必须由人来监管。2024年,越来越普遍的AI工具将使社会工程攻击更具欺骗性。由于企业提高了检测传统网络钓鱼邮件的能力,恶意黑客已转向新技术,确保诱饵更让人信以为真。此外,攻击者和不怀好意的人利用这些AI工具生成虚假信息,将对组织、政府和所有人构成挑战和威胁。
6、“别担心,生成式AI技术不会接管世界”
——Lacework首席网络安全官Merritt Baer
别担心,生成式AI技术不会接管世界,但很多传统工作的性质确实会发生变化。在2024年,我们会看到生成式AI技术将能够大量地自动处理重复性任务,它们不仅能提示程序员编写自动化程序,还有望建议编写修复脚本或为漏洞补丁所需的代码。但是,人类特有的创造性思维才是至关重要的,而AI技术所擅长的是如何可靠处理,从庞大数据集中导出模式,并精准地执行操作。
7、“安全团队需要借助AI来跟上应用开发的步伐”
——派拓网络高级副总裁Ankur Shah
今天的安全团队完全跟不上应用程序开发的节奏,这导致无数的安全风险更快速地进入到企业的生产环境中。2024年,生成式AI技术或将使应用程序的开发节奏进一步加快,开发人员将利用这项技术以前所未有的速度编写和发布新的应用。为了确保安全团队跟上步伐,企业也必须将AI技术应用到安全防护中。但AI技术在安全防护中的应用会面临一个数据问题,如果没有可靠的安全数据来训练AI,其阻止风险的能力就无从谈起。
现在,安全分析师不仅需要能够了解攻击者如何潜入,还需要了解如何创建复杂的自动化和查询,以便面对大量数据高效处理。在2024年,借助生成式AI技术,它们与数据进行交互的过程将变得更流畅。
8、“企业需要加快应对AI威胁的步伐”
——Telesign首席执行官Christophe Van de Weyer
AI技术能够帮助安全团队发现新的攻击模式、新兴CVE或表明企图破坏的某些行为。但AI技术也同时加大了企业对新型威胁的识别难度,因为现有的威胁检测系统往往无法区分由人工生成的网络钓鱼攻击还是AI生成的网络钓鱼攻击。2024年,企业需要加快、加强对AI应用威胁防御的步伐,而做好身份账户的完整性防护将是关键。企业应该基于持续分析欺诈信号,利用AI评估登录和交易的风险大小。网络安全服务商也应该扩大机器学习所能识别的欺诈种类,为加强保护措施提供依据。
9、“AI技术应该成为CISO必须掌握的专业技能”
——WinWire首席技术官Vineet Arora
企业的网络安全管理和运营人员现在需要监控和管理的数据非常庞大。随着云计算和智能边缘设备的更广泛部署,企业的数据量在未来几年还会进一步增长。而AI技术非常适合解决网络安全工作中围绕威胁检测、筛选和响应方面一些最困难的问题。因此我认为,生成式AI技术在2024年会成为每个CISO都必须熟练使用的必要技能之一。
生成式AI将显著增强安全从业者在日常工作中的专业能力。特别是在威胁情报、安全加固、渗透测试和检测工程等目前由人工完成的工作场景下,生成式AI技术能够大大提高流程的自动化程度。同时,许多枯燥的日常安全运营任务(比如日志分析、事件响应和安全补丁)都可以通过生成式AI实现自动化,从而为安全分析师节约宝贵的时间,致力于更复杂的网络安全问题。当然,我们也必须留意,恶意攻击者利用生成式AI为社会工程攻击、恶意软件以及复杂的网络钓鱼活动带来更加逼真的场景模拟。
10、“未来的网络安全工作一定是由AI技术来主导”
——Zscaler首席人工智能官ClaudionorCoelho
生成式AI技术的广泛应用将在2024年将对企业的合规工作产生重大而深远的影响。在过去,合规是一项耗时的工作,涉及制定法规、实行约束、获取证据以及回应客户问题。2024年,上述的很多工作都可以自动化的文本和程序来实现。
我们认为这将是未来网络安全工作的主要运作方式,未来将会是AI技术主导的天下。由于今天的数据和安全防护模型过于复杂和庞大,因此不能指望通过人工团队来阅读和解释它们,生成式AI将促使网络安全技术更快速地向前发展。
参考链接:https://venturebeat.com/security/16-cybersecurity-leaders-predict-how-gen-ai-will-improve-cybersecurity-in-2024/