
你是否曾有过这样的感觉:明明某个说法据说是新的,但你却觉得之前听过?或者某个流行的观点听起来和你多年前读过的东西惊人地相似?这种感觉——不妨称之为思想的“似曾相识”——在当今人工智能驱动的知识领域中变得越来越常见。就好像我们集体被困在了一个循环之中,里面充斥着重复的思想、重新包装的见解和可预见的结论。
想象一下这个场景:你在一场晚宴上深入交谈,讨论着最新的技术趋势。有人兴奋地分享了一个关于未来工作的“突破性”观点,结果你却发现,这周你已经在三篇不同的文章中读过几乎一模一样的论点,用词都几乎一样。这并不是说你的朋友缺乏原创性,而是塑造他们(以及你)思想的信息来源越来越趋于同一化。
来自过去的模式?
纵观历史,人类尽管在地域、文化和时间上相隔甚远,却反复得出了相似的结论。例如,“黄金法则”——即你希望别人怎样对待你,你就应该怎样对待别人——在世界各地的宗教和哲学中独立出现。民主制度、神话中的洪水故事,甚至代数都在多个没有直接接触的文明中独立发展起来。这种惊人的模式暗示了一种共享的认知蓝图,即人类有一种天生的倾向,会趋向于某些真理。
但当这一过程不再自然发生,当我们的共享知识不再由不同文化背景下的独立思想家塑造,而是由训练自相同数据集上的预测算法决定时,会发生什么呢?这是我们在生成式人工智能模型(尤其是大型语言模型)为我们提供日益同质化的信息的时代所面临的挑战。我们可能正在见证的,不是思想的自然趋同,而是智力多样性的缓慢消逝,其中最易获取、最常被重复、最“优化”的知识版本正在掩盖其他所有版本。
我们是否正在步入一个时代,在这个时代里,最低的共同认知基准将决定我们阅读、写作和信仰的内容?还是我们正在见证一种被强化的集体智慧,它正在加速我们相互学习的能力?
AI作为知识塑造者的崛起
当今的知识领域越来越少地由个人思想领导力所塑造,而越来越多地由算法策展所决定。像ChatGPT、谷歌的Gemini以及Meta的LLaMA等AI模型,都是基于从互联网上获取的庞大数据集进行训练的,这些数据集涵盖了从研究论文到社交媒体帖子的各种内容。这些模型能够识别模式,预测句子中最可能的下一个词,并生成听起来连贯且权威的文本。
结果呢?就是产生了大量的由AI生成的内容,这些内容被全球用户消费、改编和重新分发。新闻文章、学生论文、企业报告,甚至书籍都由大型语言模型(LLMs)创作,这形成了一个虚拟的回音室,其中某些观点被放大,而其他观点则逐渐淡出人们的视线。
这种信息的民主化具有强大的影响力。人们从未像现在这样广泛地获取知识。AI可以在几秒钟内总结密集的学术论文,按需生成商业策略,甚至提供创意写作提示。但除了认知衰退的风险——大脑就像一块肌肉,用进废退——还有另一个权衡:当AI从现有内容中学习时,它更倾向于那些已经被说过的内容,而不是那些尚未被想象出来的内容。
这就是为什么很多AI生成的文本让人感觉如此熟悉。这并不是你的错觉——确实存在这样一种风险,即AI正在加速一种认知熵的形式,其中相同的见解被无休止地重复利用,使得区分新想法和旧想法(即使它们被包装成了新的形式)变得更加困难。
知识同质化的问题
我们越依赖AI生成的内容,就越面临知识同质化的风险——即将多样化的观点逐渐抹平,形成一个可预测、易于消化的中间地带。这种动态与饮食文化的全球化不无相似,在那里,地区菜肴的多样化和复杂风味越来越让位于由快餐塑造的普遍口味:甜、油腻,且为了最大便利而设计。正如快餐的主导地位已使全球口味偏向于高度加工、热量密集的食物——牺牲了细微差别和营养多样性以换取诱人的便捷性——AI也在简化人类知识的图景,偏爱熟悉而非原创,效率而非发人深省。
就像快餐连锁店为了大众吸引力而优化口味一样,AI工具基于现有数据预测下一个词、句子或想法在统计上最可能的出现。结果是内容虽然可口但公式化,使得故事讲述、音乐和商业策略变得越来越可预测。大型语言模型主要基于来自西方来源的英语数据训练,这强化了主流叙事,同时边缘化了替代观点。
虚拟的恶性循环
正如快餐的普及创造了一个自我强化的循环——在汉堡和薯条的环境中长大,会塑造未来的口味偏好——AI生成的内容也反哺于AI的训练。随着互联网的越来越多内容由算法策展,并以大型语言模型(LLM)的输出为养分,未来的模型将在本身由AI创建的数据集上进行训练,这导致了一种信息上的“近亲繁殖”。这个循环持续得越久,就越难以摆脱既有的模式,使得真正的创新变得越来越稀缺。我们的认知自主权正岌岌可危。
这并不意味着AI本身对创造力或知识有害,就像适量食用快餐并不固有害处一样。真正的问题是被动接受——当我们不加批判地接受AI生成的输出时,我们就放弃了推动人类进步的好奇心和健康怀疑态度。正如我们必须主动寻找新鲜、未加工的食材来体验食物的丰富多样,我们也必须培养能够抵抗最小努力重力的智力习惯。如果没有有意的干预,我们可能会发现自己身处一个世界,在那里,就像无论你在纽约、柏林、德里还是金沙萨,吃到的饭菜味道都惊人地相似一样,我们消费的思想——无论来源何处——也开始听起来可疑地相似。
逃离便捷的重力:呼唤认知自主权
我们不必屈服于一个智力平庸的世界。虽然AI是一个不可否认的有用工具,但它并不必决定人类思想的边界。如果管理得当,它甚至可能帮助我们极大地拓展这些边界。谷歌的AlphaFold3就是一个令人着迷的例子,它不仅能够预测蛋白质、DNA、RNA等的结构,还能预测它们之间的相互作用,展示了AI在揭示人类自科学诞生以来就一直困惑的某些奥秘方面的潜力。
抵抗认知衰退的关键在于将AI作为我们好奇心的催化剂。我们可以选择培养一种积极抵消同质化力量的心态。以下四个原则可以指导这一努力:
1.风险意识——认知衰退
AI可以让思考变得更容易,但这并不意味着我们应该让它替我们思考。认识到认知自动驾驶的风险是夺回智力自主权的第一步。我们不应该依赖AI来获取每一个答案,而应该有意地培养我们的独立推理能力。
2.把握机遇——科学边界
AI可以帮助发现隐藏的模式并加速发现,但前提是我们将其用作跳板而非拐杖。我们不应该向AI寻求简单的答案,而应该用新问题来挑战它,利用其能力来拓展知识的边界,而不是强化现有的边界。
3.坚持不可或缺之原则——批判性思维
在一个AI生成内容越来越像人类写作的世界里,质疑、分析和验证信息来源的能力比以往任何时候都更重要。怀疑论并不是愤世嫉俗,而是防止智力停滞的保障。
4.对我们的知识环境负责
无论是知识由AI生成还是由人类思维创造,我们都对我们所消费、创造和分享的内容负有责任。智力诚信意味着抵制便利的诱惑,并有意识地努力寻求多样化的观点、原始来源和更深入的见解。
前进之路:混合智能模型
知识的未来不必是人工智能与自然智能相互竞争的非此即彼场景。相反,我们可以有意识地采纳一种混合智能模式,其中AI作为增强工具,而非原创思想的替代品。为了实现这一点,
- 教育必须不断发展:学校和大学不应仅仅强调信息检索,还应强调挑战、提炼和扩展信息的技能。算法素养应包括对其局限性和偏见的理解。
- AI系统必须设计为多样化:用于训练AI的数据集应反映广泛的文化、语言和观点。开发者必须优先考虑思想的多样性,而不仅仅是效率。
- 我们每个人都必须夺回并捍卫我们的创造自主权:我们不应该让AI为我们生成想法,而应该用它来提炼和测试我们自己的想法。AI应该是思想的伙伴,而不是思考的替代品。
- AI和自然智能(NI)应基于尊重每个人尊严和权利的价值观。
智力同质化并非不可避免,它是一系列分散的个人和机构选择的结果。问题是,我们是否会选择阻力最小的道路——允许AI塑造我们知识的界限——还是我们会迎难而上,塑造一个人类智慧与人工智能并驾齐驱的世界。
即便新一代推理模型也无法将我们从温水煮青蛙式的思维泥潭中拯救出来,除非我们抵制便利的诱惑。最终,思想的未来仍由我们来书写。让我们确保它不仅仅是过去的平淡混音,而是充满创新与活力的新篇章。