为什么信任对于生成式AI的商业应用至关重要
为什么信任对于生成式AI的商业应用至关重要

为什么信任对于生成式AI的商业应用至关重要

信任一直是业务成功的关键因素。在生成式AI时代,这一点比以往任何时候都更为重要。

企业需要确信其AI解决方案生成的关键决策和输出是可信且可靠的。他们必须考虑AI是否安全地仅基于其专有数据进行运行,解决相关的网络安全问题,并考虑培训大型语言模型(LLMs)的环境影响。他们需要了解系统如何达成决策,如何满足业务和法规要求的合规性,并减轻偏见或引起争议的行为。

如今,生成式AI正在改变AI所能实现的领域,因此信任的关键性更加明显。例如,生成式AI模型可以生成高度可信且结构良好的回答,因此在没有正确的主题专业知识的情况下很难识别出错误的回答。生成式AI没有测试-复测的可靠性,这意味着可以多次向LLM提问相同的问题,每次都会得到不同的答案。它无法理解含义,这只会加剧这些风险。

许多业务领袖感受到来自投资者、客户、员工和其他方面的压力,要加速采用AI,包括生成式AI,但他们需要权衡行动的紧迫性与潜在风险。根据IBM商业价值研究所最近发布的报告《AI时代CEO的决策》,接受调查的四分之三的首席执行官表示,竞争优势将取决于谁拥有最先进的生成式AI,但调查的48%首席执行官担心偏见或数据准确性问题。

IBM咨询通过帮助各行各业的客户在全球范围内扩展AI的经验表明,在企业中建立对AI的信任需要一种跨越人员、流程和技术的社会方法。

以下是领导者在扩展AI时应考虑采取的三项行动,以帮助建立信任:

1.不仅要公布原则,还要使其具体化

公平性、可解释性、隐私性、稳健性和透明性是关于可信任AI的支柱。这些是用来构建AI模型的功能性和非功能性要求的强大而简洁的词汇,但将其付诸实践却颇具复杂性。

以透明性为例,用户应能够了解AI服务的运作方式,评估其功能,以及理解其优点和限制。这有助于模型的用户判断其是否适用于其情况。

透明性强化了信任,促进透明性的最佳方式是通过披露。具体化这一点意味着确保AI系统共享有关收集了哪些数据、如何使用和存储数据以及谁可以访问数据的信息。系统应明确向用户表明其目的。

2.建立AI治理以融入AI伦理学的原则

说伦理原则很重要很容易,但将这些伦理原则融入运营中则需要治理。AI治理是在整个AI生命周期中定义政策并建立问责制的方式。

建立组织结构、政策、流程和监督都非常重要。AI伦理委员会可以是自然的催化剂。通过一个AI伦理委员会将信任和透明原则贯彻到整个公司,提供了集中的治理,并要求公司和所有员工都恪守价值观。

3.关注文化和跨职能合作

目标应该是让AI更好地反映其服务的社区。但要确保在AI中不会持续存在不平等的系统,需要建立适当的组织文化来负责合理策划AI。

构建AI工具和流程的团队应该代表多种学科、技能和生活经验。不仅要考虑引入工程师和数据科学家,还要考虑设计师、法律专业人员和预期用户自身。协作方法,如IBM Garage,旨在帮助组织制定框架,加快创新,推动有意义的持久变革,将用户置于中心位置,有助于减轻偏见。建立能够不断征求关于基于AI的工具和流程的持续反馈的系统也可以帮助取得更好的成果。所有这些因素都有助于获得用户的信任。

AI可以是推动业务转型的强大工具,但成功的实施取决于以可信赖和道德的方式使用AI。

在企业规模上应用AI,同时遵循以人为本的原则,建立信任。在可信AI方面的咨询能力与强大的软件(如AI和数据平台IBM Watsonx)的结合,可以帮助企业审计和减轻风险,实施全面的治理框架,具体化AI,提供教育和指导,以及组织变革。