生成式AI的炒作即将结束——这项技术可能真的会派上用场
生成式AI的炒作即将结束——这项技术可能真的会派上用场

生成式AI的炒作即将结束——这项技术可能真的会派上用场

不到两年前,ChatGPT 的发布引发了一场生成式 AI 的狂潮。有人认为,这项技术将引发第四次工业革命,彻底重塑我们所熟知的世界。

2023 年 3 月,高盛预测,人工智能将导致 3 亿个工作岗位的丧失或降级。似乎一场巨大的变革正在进行。

然而,十八个月过去了,生成式 AI 并未如预期那样彻底改变商业世界。许多使用该技术的项目被取消,例如麦当劳试图自动化自驾点餐的尝试,这一失败的尝试在 TikTok 上广为传播,成为笑话。政府试图利用 AI 系统总结公众意见和计算福利资格的努力也遭遇了同样的命运。

那么,发生了什么?

AI 噱头周期

像许多新兴技术一样,生成式 AI 正经历一个被称为“Gartner 噱头周期”的过程,这一概念最初由美国科技研究公司 Gartner 提出。

这一广泛使用的模型描述了一个反复出现的过程:技术的初期成功引发了过高的公众期望,最终这些期望未能实现。在最初的“过度期望顶峰”之后,出现了“幻灭低谷”,接着是“启蒙斜坡”,最终达到“生产力平台”。

Gartner 在 6 月发布的报告中指出,大多数生成式 AI 技术要么处于过度期望的顶峰,要么仍在上升阶段。报告认为,这些技术要完全实现生产力,通常还需要两到五年的时间。

虽然许多引人注目的生成式 AI 产品原型已经开发出来,但实际应用中的成功率却不高。美国智库 RAND 最近发布的一项研究显示,80% 的 AI 项目失败,这一失败率是非 AI 项目的两倍多。

当前生成式 AI 技术的不足之处

RAND 报告列出了生成式 AI 面临的许多困难,从对数据和 AI 基础设施的高投资需求到缺乏所需的人才。然而,生成式 AI 的局限性表现出一种特殊的挑战。

例如,生成式 AI 系统能够解决一些极其复杂的大学入学测试,但却在执行非常简单的任务时失败。这使得评估这些技术的潜力变得非常困难,从而导致了虚假的自信。

毕竟,如果它能解答复杂的微分方程或撰写文章,那么它应该能够处理简单的自驾点餐任务,对吗?

最近的一项研究显示,大型语言模型(如 GPT-4)的能力并不总是符合人们的期望。特别是在高风险情况下,能力更强的模型表现得极其不足,其中错误的回答可能会造成灾难性的后果。

这些结果表明,这些模型可能会给用户带来虚假的信心。由于它们能流畅地回答问题,人们可能会对它们的能力产生过于乐观的判断,并将这些模型应用于它们不适合的情境中。

成功项目的经验表明,让生成式模型遵循指令非常困难。例如,Khan Academy 的 Khanmigo 辅导系统尽管被指示不要直接给出答案,但它常常还是会暴露问题的正确答案。