未来的AI会成为你的助手还是老板?
未来的AI会成为你的助手还是老板?

未来的AI会成为你的助手还是老板?

人工智能会成为你梦想中的助手还是你从未期望的老板?

人工智能正在改变我们的工作方式,但尚不清楚AI最终会接管哪些任务。我们会利用AI作为自己的个人执行助理吗?还是AI最终会监督打工人?

正如德国社会心理学家Erich Fromm所说:“过去的危险是人类沦为奴隶,未来的危险是人类可能沦为机器人。”

以下是我们目前对AI是否会成为打工人梦寐以求的助手——或打工人从未期望的老板。

AI的进步

机器决策正在接管工作场所管理,这种算法管理正在改变中层管理并影响高层管理。AI可以通过快速分析市场趋势、竞争对手行为和人员的复杂数据,大大增强执行功能。一个有自主性的AI顾问可以为CEO提供简明的数据驱动建议,帮助其在市场扩展、产品开发、收购和合作等战略决策上做出选择。

代理型AI,指能够独立适应和实现复杂目标的AI系统,标志着AI发展的新阶段。这些系统与大型语言模型(LLMs)集成,为创新、物流和风险管理提供工具。然而,与其他人工智能系统相比,代理型AI的独立目标实现能力带来了独特的道德和安全挑战,需要谨慎地将人工智能目标与人类价值观结合起来,以防止出现意想不到的后果。随着这些技术的发展,谨慎的监督变得越来越重要,以在获得利益的同时减少风险。

目前,人工智能无法取代人类领导力的基本特质,如可信度和鼓舞人心。人工智能在管理领域的崛起具有重大的社会影响。随着对“管理”的传统理解发生转变,自动化侵蚀中层管理角色可能导致身份危机。在管理咨询中,AI可能通过提供数据支持的战略建议而带来颠覆。然而,在如此关键的角色中部署AI需要仔细监督,以验证其建议并减轻风险。

AI对就业影响的演变

过去,AI对就业的最大影响是取代体力劳动。但现在,AI也在接管数据分析和客户服务等“智力”任务。与早期的技术变革不同,AI威胁到垄断智力工作,可能让人类只剩下基本的体力和情感任务。一些专家称之为“智力活动的圈地运动”,即劳动力的去技能化。代理型AI独立适应和实现复杂目标的能力可能加速这一趋势,迅速优化和自动化智力任务。

算法已经将零工工人引向零散、短期的任务。虽然这可能不会导致广泛的失业,但可能会使工作变得不那么令人满意,服务也不那么有效。“零工化”将工作分解为不相关的任务,侵蚀了长期的参与感和满意度。代理型AI可能被用来管理和优化这些零散的任务,可能会加剧令人不满的工作和次优服务的问题。

算法驱动的客户服务往往缺乏人情味和理解,使解决方案变得非人化。例如,丹麦的算法失业救济系统因监视受益人并削减福利而受到批评,将本应节省时间的工具变成了行政噩梦。类似的算法问题也在意大利和西班牙出现,影响了教学任务分配和工人监管。这些警示故事强调了在自动化复杂政府任务时需进行谨慎规划、测试和遵守伦理的必要性。在这里出现错误可能会严重影响生计和福祉,因此备用计划和人工监督至关重要。

算法管理的风险

将机器学习和自动化集成到业务中有望提高效率。然而,这些系统会危及工人的自主权和福祉。人工智能可以增强人类的潜力,也可能取代它,将工人简化为自动化机器中的一个个齿轮。具有代理能力的人工智能的适应性和独立目标实现可能导致更加不人性化和严苛的管理系统。

这些系统缺乏人性,因此可能具有专制性,在缺乏背景、同理心或理解的情况下进行控制。它们的复杂性可能会达到一种程度,即使是创建者也无法完全解释它们的行为。一旦建立起来,这些系统很难撤销,存在将非人道的工作环境固化的风险。代理人工智能在没有人类背景或同情心的情况下优化效率的能力可能会延续和固化这些问题。

例如,由人工智能驱动的求职者追踪系统(ATS)使用关键词过滤来淘汰(有时很合适的)候选人,将招聘过程变成了一场贬低人性的游戏。并且由于 ATS 模型的不透明性,对其决策提出质疑可能具有挑战性。

迫使人类工人适应

在人工智能驱动的环境中,传统角色可能被简化为自动化系统的“机器管理员”,和解决故障“责任海绵”。人工智能转型工作最令人担忧的不仅仅是失业问题,而是将剩余角色转变为机械化的功能。在算法管理下,每一个行动都受到数据的严格审查,将人类的表现与机器指标对比。具有代理能力的人工智能能够独立优化工作流程和过程,可能会加大对人类工作者的压力,促使他们采用机器般的行为来跟上步伐。

这种强烈的审查迫使人类工作者采用机器般的行为——不间断的可用性、高度集中的注意力、对数量化指标的偏好——以保住自己的工作。虽然这可能提高生产力,但也可能通过不可持续的工作压力使工人筋疲力尽。具有代理能力的人工智能的适应性可能会导致更为严格和苛刻的绩效标准,几乎不留下人类自主判断或创造力的空间。

曾由人类做出的决策,如排班和执行绩效评估,现在越来越多地由算法来处理。虽然高效,但这些系统缺乏人类的同情心和理解。例如,机器学习模型通常会比人类评估者更严格地评估规则违反,这是因为行为规范与硬性事实之间的微妙差异,后者缺乏人类背景下的细腻理解。

这种管理机械化压缩了 spontaneity(自发性), creativity(创造力)和 tolerable mistakes(可容忍的错误)的空间。个体行为被简化为数据点,人类裁量的余地也在收缩。具有讽刺意味的是,随着机器越来越接近模仿人类认知,人类却面临着放弃自己独特特质以满足严格机器标准的压力。

工作的未来

工作的未来正处于一个转折点。随着人工智能的进步,放大工作中的伦理和社会问题的风险也在增加。迫切需要采取平衡的方法,以在提升效率和创新的同时,保障人类的尊严、自主权和福祉。

员工与设计师和工程师合作的联合设计研讨会可以概述所需的功能并讨论缺陷。在设计过程中,将具有代理能力的人工智能的独立目标实现能力与人类的价值观和需求对齐是至关重要的,这样可以确保它增强而非削弱人类的潜力。员工可以分享工作中的细微经验,提出关注点,并参与制定算法规则和标准。

这些步骤可以使劳动市场更加公平、透明和与工人对齐,减少不公正的处罚或过度的监视等负面影响。将员工纳入共同设计过程中培养了他们的主动性和所有权感,并增加了新技术融合的可能性。

算法管理的挑战在于利用人工智能提升人类的潜力,而不是削弱它。具有代理能力的人工智能的可信性和无偏性尤为关键,特别是考虑到它在工作场所独立做出决策和行动的能力。这些技术必须展示它们是可信赖、无偏见的,并且设计初衷是首先服务工人的需求。

领导者应避免无情的自动化。生活往往在不过度优化时才最好。