AI重塑商业规则
AI重塑商业规则

AI重塑商业规则

在过去几周里,全球关于AI风险和监管的讨论出现了一些重要进展。从美国对OpenAI进行的听证会和欧盟宣布修订后的AI法案中,我们可以看到一个新兴的主题,即呼吁加强监管。

但令一些人感到惊讶的是,政府、研究人员和AI开发者之间在监管需求方面达成了共识。在国会作证时,OpenAI的CEO Sam Altman提议建立一个新的政府机构,负责发放开发大规模AI模型的许可证。他给出了该机构如何监管行业的几个建议,包括“结合许可和测试要求”,并表示像OpenAI这样的公司应该接受独立审计。

然而,尽管对于风险的共识越来越多,包括对人们工作和隐私可能产生的潜在影响,但对于这样的监管应该如何制定,以及潜在的审计应该关注什么仍然没有共识。在世界经济论坛举办的第一届生成式AI峰会上,来自企业、政府和研究机构的AI领导者齐聚一堂,推动在如何应对这些新的伦理和监管考虑方面取得一致。峰会中出现了两个关键主题:

需要负责任和可追溯的AI审计

首先,我们需要更新对于开发和部署AI模型的企业的要求。当我们质疑“负责任创新”真正意味着什么时,这一点尤为重要。英国一直在引领这场讨论,其政府最近通过五项核心原则提供了关于AI的指导,包括安全、透明和公正。牛津大学最近的研究也强调了“ChatGPT等LLM的出现迫使我们迫切需要更新对责任的概念”。

推动这种对新责任的追求的核心动力是越来越难以理解和审计新一代AI模型。为了考虑这种演变,我们可以将“传统”AI与LLM AI(大语言模型AI)进行比较,以求职候选人推荐为例。

如果传统AI是基于识别某种族或性别的员工在更高级别职位上的数据进行训练,那么它可能会通过推荐相同种族或性别的人来引入偏见。幸运的是,通过检查用于训练这些AI模型的数据以及输出的推荐,我们可以发现或审计这种偏见。而使用新的LLM驱动的AI,这种类型的偏见审计变得越来越困难,甚至有时几乎不可能测试偏见和质量。我们不仅不知道“封闭”的LLM是在哪些数据上进行训练的,而且对话式推荐可能会引入更主观的偏见或“幻觉”。

例如,如果您要求ChatGPT总结一位总统候选人的演讲,谁能判断这是否是一篇带有偏见的总结呢?因此,对于包含AI推荐的产品来说,考虑新的责任更加重要,例如推荐的可追溯性,以确保用于推荐的模型确实可以进行偏见审计,而不仅仅是使用LLM。

在人力资源领域,什么被视为推荐或决策的界限是新的AI监管的关键。例如,纽约市的新AEDT法律正在推动对涉及就业决策的技术进行偏见审计,例如那些可以自动决定谁被聘用的技术。然而,监管环境正在迅速发展,不仅仅关注AI如何做出决策,还关注AI的构建和使用方式。

向消费者传达AI标准的透明度

这就引出第二个关键主题:政府有必要为AI技术的构建制定更清晰和更广泛的标准,并将这些标准清晰地告知消费者和员工。

在最近的OpenAI听证会上,IBM的首席隐私和信任官Christina Montgomery强调,我们需要标准,以确保消费者在与聊天机器人互动时都能意识到。关于AI的开发方式以及恶意使用开源模型的风险的透明度对于最近欧盟AI法案考虑中禁止LLM API和开源模型至关重要。

如何控制新模型和技术的泛滥将需要进一步的辩论,以便在风险和利益之间的权衡变得更加清晰之前。但越来越明显的是,随着AI的影响加速,标准和规定的紧迫性以及对风险和机会的认识也在增加。

AI的影响可能最迅速地被人力资源团队感受到,他们被要求同时应对新的压力,为员工提供提升技能的机会,并为执行团队提供关于新技能的调整预测和人力资源计划,以适应其业务战略的变化。

在最近的两次世界经济论坛关于生成式AI和未来工作的峰会上,AI和人力资源领导者、政策制定者和学者进行了交流,并达成了一项新的共识:所有企业都需要推动负责任的AI采用和意识。世界经济论坛刚刚发布了其《未来就业报告》,其中指出,在未来五年中,预计23%的工作岗位将发生变化,其中有6900万个新岗位被创造,但8300万个岗位将被淘汰。这意味着至少1400万人的工作岗位面临风险。

该报告还指出,不仅有6成的员工需要在2027年之前改变他们的技能组合来完成工作,他们还需要进行技能提升和再培训,但只有一半的员工被认为目前有足够的培训机会。那么,团队应该如何使员工在AI加速转型中保持参与?通过推动内部转型,关注员工,并认真考虑如何创建一个合规和连接的人力资源和技术体验体系,使员工能够更透明地了解自己的职业生涯,并提供发展自己的工具。

新一波的监管措施正在帮助我们重新审视如何考虑与人有关的决策中的偏见,比如人才选择等方面。然而,随着这些技术被人们在工作和生活中广泛应用,对企业和人力资源领导者来说,他们对了解技术和监管环境的责任比以往任何时候都更加重大,并且需要积极推动在团队和企业中采用负责任的AI战略。