当前阶段或AGI后的人机交互一直是一个有争议的话题。无论你持什么样的观点,我都想探讨AI对我们思维的影响。在一个AI广泛传播的世界里,人类会变得更加聪明吗?
首先,AI并不是生活中全新的事物,我们已经习惯了它,当我们听取亚马逊的推荐或滚动无休止的TikTok视频时,它早已存在。AI非常了解我们,以及我们的兴趣,并有时通过推荐来告诉我们该做什么(这是现代广告的版本——推荐系统)。一些人对此抱有“阴谋论”的看法,而技术爱好者则认为这有助于我们避免为琐碎的事情烦恼。
科技的确提高了生产效率,通过自动化消除了许多任务。
曾经有一段时间,人们被雇佣来在纸上进行计算,然后他们被给予计算器来帮助他们,以免花太多时间和精力在纸上计算,现在他们有了计算机和Excel来为他们做数学计算。
曾经有一段时间,人们被雇佣来负责手动停止电梯以定时停在特定楼层,现在它们已经自动化,只需要在定位运行时进行一些维修。目前,机器负责30%的任务,其余的由人来完成。
计算器并没有让会计变得愚蠢,而是提高了他们的生产力和精确度。自动电梯使一些专家技术人员能够更好地完成工作,但并不是每个人都有能力胜任这项工作。人工智能是下一次革命。有人猜测,这将成为人机混合的50-50比例,这是一个巨大的转变。这就是为什么许多人担心,生怕他们赶不上并在人工智能在更好、更便宜和更高效的情况下完成他们的工作之前装备好自己。
无论如何,本文并不是讨论人工智能是否正在夺走我们的工作。这将会造成劳动力成本,对于那些落后的人来说,他们需要重新培训。根据IBM的一项调查,全球超过1.2亿名工人在未来三年内需要接受培训,这是由于人工智能对就业的影响。
这里讨论的主题是我们的智力;人工智能是否能扩展我们的思维,使我们变得更具创造力、创新力和生产力?
我们正在将我们的智慧输送给数据。从很大程度上来说,大多数人工智能工具所训练的数据都是由我们人类产生的。我们产生的数据越多,它们就变得越聪明。这就是为什么欧洲国家担心他们公民的数据,以及欧洲人民自己也担心的原因。
过去我们一直在思维和人工智能之间划定了一条界限,将人类视为创造者,将机器视为被创造物。我们将我们的智力任务交给了它们。我们高于它们。让我们重新组织这个观点;相反,我们人类和人工智能都是在耦合、融合、混合和结合,形成单元。
“扩展心智”的概念由两位哲学家安迪·克拉克(Andy Clark)和大卫·查尔默斯(David Chalmers)定义,他们认为 “认知” 不仅仅发生在我们的头脑中,换句话说,心智不仅仅存在于大脑中,它可以延伸到外部世界,包括物理对象。例如,在苹果发布智能手机后不久,它能够执行我们过去需要自己完成的任务,如记忆电话号码、导航等。
同样地,我们可以看到 “扩展身体” 的例子,例如,将Neuralink的芯片植入我们的头部,或者钢铁侠中的外部装置等。这些都是上述融合科技和人类的示例。我们可以将这个想法推广到能力上。
实际上,在21世纪,这对人类是有益的。智能手机帮助盲人或视力低下的人通过检测门或为聋人提供实时字幕来导航等等。尽管科技在其发展历程中取得了很大的进步,但仍有待进一步改进,但它具有潜力。
为了使这种耦合和谐共存,必须满足以下三个条件:
- 每个部分都有自己的因果责任,同时它们之间紧密连接,构建了一个完整的系统
- 所有系统都按照思维进行操作
- 如果外部系统(至少一个)丢失,整体行为能力应该减少
到目前为止,我们一直在利用技术来提高我们的生产力,如果我们对自己诚实的话,这个方法效果相当不错。根据另一位哲学家约翰·达纳赫(John Danaher)的说法,人类与科技结合的方式在增强方面存在明显但也有消除的区别,即 “外部” 和 “内部” 形式。他认为,如果技术可以改善人们在新环境中的心理健康或行为,那么它是朝着人类增强的方向发展的。
因此,我们也可以将类似的类比应用于AI,特别是对那些我们人类可以直接利用的AI工具(例如ChatGPT等)。我们不能轻松地将其应用于所有AI工具。为什么?因为其中一些在我们的掌控之中,我所说的掌控是指我们可以触发它们的行动,比如提示AI聊天机器人、请求Alexa/Siri帮忙等。另一方面,有些在某种程度上在我们的掌控之中,比如Instagram/TikTok算法、亚马逊的推荐系统等。还有一些是超出我们掌控范围之外的。
为此,大卫·查尔默斯(David Chalmers)发表了关于我们是否可以将大型语言模型(LLMs)视为延伸思维的演讲。他质疑我们是否可以将AI工具,如ChatGPT,视为扩展我们思维的工具,因为在给定正确提示的情况下,聊天机器人会以有用的信息回应我们。令所有人感到惊讶的是,他表示,像ChatGPT这样的技术可能运作得太独立,以至于无法被视为思维的延伸。
延伸思维理论仅适用于一些AI工具,随着它们变得更加自主,就越难被视为思维的延伸。
他对为什么以及何时将新技术视为思维延伸的标准进行了推理和讨论;最后,他以一个值得思考的问题总结了演讲:“这个过程是否是思维的延伸?”
有趣的是,有一篇题为“大型语言模型是否了解人类知识?”的论文进行了一个虚假信念任务,人类的正确率为82.7%,而大型语言模型的正确率为74.5%,这相当令人印象深刻;但大型语言模型并没有完全描述人类行为。这表明,仅仅依靠语言统计数据足以生成虚假信念,但不能完全解释人类行为。
另一方面,越来越多地依赖AI来推荐(甚至极端情况下是命令)我们该做什么,一些人认为这会使我们的大脑变得更愚蠢,创造力减弱。这并不是一个新的争论话题,过去曾在Google上讨论过(《Google是否让我们变得愚蠢?》),现在也在AI的新进展中讨论(《生成式AI是否会让我们更愚蠢?》)。
面对人工智能和人类智能的首次较量之一可以追溯到90年代末,那是Deep Blue和世界象棋冠军加里·卡斯帕罗夫(Garry Kasparov)之间的故事。他与IBM的Deep Blue机器赢了输了好几局比赛。
他认为,我们人类能做的任何事情,机器都可以做得更好。与像艾伦·图灵(Alan Turing)这样认为象棋是智能的最终考验的伟大思想家和计算机科学家不同。他并不反对AI,实际上,他相信一个简单的等式,即一个人加上机器可以在他的专业领域击败一位天才。
事实上,这已经成为现实,在2016年,DeepMind的AI AlphaGo与围棋世界冠军李世石进行了一系列对弈。人类李世石只赢了五局中的一局,输掉了其他比赛。与象棋相同的情况也发生在围棋中;我们应该考虑,由于其巨大的移动自由度,围棋比象棋要难得多,这导致了许多不同的策略。