人工智能(AI),尤其是生成式AI应用,如ChatGPT和Bard,自从2022年11月开始广泛提供以来,就在新闻周期中占据主导地位。GPT(生成式预训练变换器)通常用于生成基于大量文本数据训练的文本。
毫无疑问,生成式AI已经创作出新歌,创造出图像,起草电子邮件(以及更多其他任务),同时也引发了有关其如何被使用或滥用的合法伦理和实际担忧。然而,当你将生成式AI的概念引入到运营技术(OT)领域时,就会产生涉及潜在影响,如何最好地测试它,以及如何有效且安全地使用它的重大问题。
AI在运营技术(OT)中的影响、测试和可靠性
在运营技术(OT)领域,操作都是关于重复性和一致性。目标是具有相同的输入和输出,以便能够预测任何情况的结果。当发生不可预测的情况时,总会有一个人类操作员在桌前,根据可能的后果迅速做出决策 – 尤其是在关键基础设施环境中。
在信息技术(IT)领域,后果通常要小得多,比如丢失数据。另一方面,在OT领域,如果石油精炼厂发生爆炸,可能造成人员伤亡、对环境产生负面影响、严重的法律责任问题,以及长期的品牌损害。这强调了在危机时刻迅速且准确地做出决策的重要性。这也是为什么仅仅依赖于AI或其他工具对于OT操作来说并不完美,因为错误的后果是巨大的。 AI技术使用大量数据来制定决策并建立逻辑以提供适当的答案。在OT领域,如果AI没有做出正确的决策,可能产生严重而广泛的负面影响,而法律责任仍然是一个悬而未决的问题。
例如,微软提出了一个公共AI治理的蓝图,通过公共政策、法律和法规来解决当前和新兴问题,借鉴了美国国家标准与技术研究所(NIST)最近推出的AI风险管理框架。该蓝图呼吁政府主导的AI安全框架,并为控制关键基础设施的AI系统设置安全制动器,以便在新的能力出现时,社会可以决定如何适当地控制AI。
提升红队和蓝队演练
“红队”和“蓝队”的概念指的是测试和提升系统或网络安全性的不同方法。这些术语起源于军事演习,后来被网络安全社区采纳。为了更好地确保OT系统的安全性,红队和蓝队共同合作,但从不同的角度出发:红队试图找到漏洞,而蓝队专注于防御这些漏洞。其目标是创造一个现实场景,红队模拟真实世界的攻击者,而蓝队则根据演习中获得的见解作出响应并改进防御策略。
网络安全团队可以使用AI来模拟网络攻击,测试系统可能遭受攻击和防御的方式。在红队和蓝队的演练中利用AI技术将会极大地有助于填补技能鸿沟,尤其是在缺乏熟练劳动力或没有足够预算购买昂贵资源的情况下,甚至可以为经过良好训练的团队提供新的挑战。AI可以帮助识别攻击向量,甚至可能突显以前评估中未发现的漏洞。
这种类型的演练将突显可能危及控制系统或其他重要资产的各种方式。此外,AI还可以在防御方面提供各种关闭红队侵入性攻击计划的方法。这可能会揭示出保护生产系统的新方法,提高系统整体安全性,最终改进整体的防御,并创建适当的响应计划来保护关键基础设施。
数字孪生与人工智能的潜力
许多先进的组织已经构建了其运营技术(OT)环境的数字副本 – 例如,石油精炼厂或发电厂的虚拟版本。这些副本是建立在公司全面的数据集上,以匹配其环境。在一个隔离的数字孪生环境中,可以使用AI来对不同技术进行压力测试或优化。
这个环境提供了一种安全的方式,可以看到如果您改变了某些东西会发生什么,例如尝试新的系统或安装不同大小的管道。数字孪生将使运营商能够在实施生产操作之前测试和验证技术。利用AI,您可以使用自己的环境和信息寻找增加吞吐量或最小化所需停机时间的方法。在网络安全方面,它还提供了更多潜在的好处。
然而,在现实世界的生产环境中,提供对可能导致实际影响的事物的访问或控制存在极大的风险。在此阶段,尚不清楚在应用这些变化于现实世界之前,数字孪生中的测试有多少足够。
如果测试结果不完全准确,负面影响可能包括停电、严重的环境影响,甚至根据行业而定可能会产生更糟糕的结果。出于这些原因,将AI技术引入运营技术领域的采用可能会缓慢而谨慎,这为长期的AI治理计划有时间成形,并为风险管理框架创造了条件。
增强SOC能力并减少操作员的干扰
AI还可以在远离生产设备和流程的安全方式下,用于支持运营技术(OT)业务的安全和增长,这可以在安全运营中心(SOC)环境中实现。组织可以利用AI工具,几乎可以像SOC分析师一样,审查异常情况并解释来自各种OT系统的规则集。
这再次涉及使用新兴技术来填补运营技术和网络安全领域的技能鸿沟。AI工具还可以用于最小化报警管理或资产可见性工具中的噪音,提供建议的操作或根据风险评分和规则结构审查数据,以减轻员工的工作压力,使他们能够专注于最优先和最有影响力的任务。
AI和OT的下一步是什么?
在信息技术(IT)领域,AI已经迅速被采用。这种采用可能也会影响到运营技术(OT),因为这两个环境越来越趋于融合。IT领域的事件可能会对OT产生影响,正如Colonial管道事件所展示的,勒索软件攻击导致管道运营停滞。因此,在IT中增加AI的使用可能会引发对OT环境的担忧。
第一步是为AI能制定检查和平衡措施,将采用限制在影响较小的领域,以确保可用性不会受到威胁。拥有OT实验室的组织必须在不连接到广泛互联网的环境中对AI进行广泛测试。
就像不允许外部通信的空隔离系统一样,我们需要在内部数据上构建封闭的AI,这些数据在环境中保持受保护和安全,以便安全地利用生成式AI和其他AI技术所能提供的能力,而不会将敏感信息、环境、人类或更广泛的环境置于危险之中。
品味未来 —— 从今天的开始
AI提升我们的系统、安全性和效率的潜力几乎是无限的,但我们需要在这个有趣的时代始终将安全性和可靠性放在首位。所有这些并不是说我们今天没有看到AI和机器学习(ML)所带来的好处。
因此,尽管我们需要意识到AI和ML在运营技术(OT)环境中所带来的风险,作为一个行业,我们也必须像每次引入新技术类型时一样:学会如何安全地利用它来获得益处。