能否信赖AI传递真相?
能否信赖AI传递真相?

能否信赖AI传递真相?

人类历来需要适应新信息来源的可靠性。

“虽然虚假信息绝非新问题,然而…创新技术…使得前所未有的庞大内容在空前的速度下传播,”一份2022年11月联合国报告指出。同样,一个2023年1月的NewsGuard通讯提到:“ChatGPT可能在前所未有的规模上传播有害的错误信息。”

“虚假信息”的概念本身就令人震惊:善良无辜者遭受恶意说谎者的恶意攻击。乍一看,对我们应该阻止人们说出虚假言论的想法表示同情,当然,在我们能找到至少能粗略区分何为虚假的真理权威时。值得庆幸的是,许多广受尊敬的权威人员——包括新闻记者、学者、监管机构和持牌专业人士——确实提供了这样的服务。

但我们还有元权威——即关于“审查制度”这一总体主题的权威,比如约翰·弥尔顿、约翰·斯图尔特·密尔、伏尔泰、乔治·奥威尔、弗里德里希·哈耶克、于尔根·哈贝马斯、诺姆·乔姆斯基和汉娜·阿伦特。大多数元权威都警告说,至少在极端情况之外,不应授权权威限制人们的言论自由。

这些元权威们表示,通常情况下,我们更应该让我们的真理权威对错误主张进行争论,而不是将其审查。当每个人都能发表自己的看法并批评他人的言论时,从长远来看,大多数人至少能够大致判断应该相信谁。相比之下,被授权审查的权威通常会被寻求让批评者闭嘴的中央权力所控制,这往往会以糟糕的结果告终。

有人说,这在很久以前是有道理的,当人类的口头说服能力与批判性倾听能力处于自然言语平衡状态时。但最近,前所未有的新技术颠覆了这种平衡,使那些可怜的无辜听众陷入了可怕的劣势。这就是为什么他们说,我们必须授权一类新的精通技术的权威,通过决定谁可以说什么来重新平衡这些权力天平。

许多评论家严肃地谈论了社交媒体和生成式人工智能(A.I.)所带来的前所未有的虚假信息危险,他们建议采取新的审查制度来应对这些危险。这些评论家常常用复杂的技术术语来支持他们的建议,试图说服您认为这些是微妙的技术问题,必须交给像他们这样的技术专家来处理。

不要相信他们。最新的技术趋势通常并不会对最佳政策产生太大影响。大多数反对审查的元权威们生活在许多前所未有的技术多次对人类言语平衡产生巨大变革之后的时代。但由于这些元权威的分析是简单而普遍的,所以它对他们当时的技术是稳健的,因此它今天仍然具有相关性。

社交媒体和生成式AI可能看起来是重大变革,但实际上,人类对我们的交流系统进行了远比这些更大的变革,所有这些变革都是“前所未有的”。想想看:语言、翻译、理性、辩论、法庭、写作、印刷、学校、同行评审、报纸、新闻学、科学、学术界、警察、邮件、百科全书、图书馆、索引、电话、电影、广播、电视、计算机、互联网和搜索引擎。

人类通常通过校准这一关键策略成功地管理着我们不断增加的言语创新动物园:我们制定并调整对不同主题上不同来源准确性的估计。我们已经积累了许多评估来源可靠性的策略,包括让不同的来源相互批判,追踪记录比较来源主张与后来揭示的现实情况。

因此,我们有时会高估,有时会低估来源的可靠性,但是如果我们愿意,我们可以平衡实现来源可靠性的判断。因此,随着时间和经验的积累,我们也应该能够校准社交媒体和生成式AI的可靠性。

我们主要的问题在于,人类通常对已揭示的物理真相对来源的校准不太感兴趣,而是对社会真相更感兴趣。也就是说,我们更希望与准确的来源联系较少,与有威望的来源联系较多,以便他们的威望会传到我们身上,还有与部落附属的来源联系,以表示对部落的忠诚。

基于这一点,询问任何特定的言语创新,包括社交媒体或生成式AI,是否可能加剧这个问题似乎是有道理的。但实际上,预测这些新技术可能对这个问题产生什么影响似乎相当困难。也许社交媒体削弱了有威望的来源,但增加了部落附属的来源。现在似乎还为时过早去猜测生成式AI可能倾向于哪种方式。

然而,似乎更清楚的是,我们最有威望的权力和最强大的部落在控制授权审查社交媒体或生成式AI的任何机构时将具有巨大的优势。也就是说,增加审查的行为本身可能会使社会影响问题变得更糟——这当然是我们关于审查的元权威长期以来的主要警告。

广受尊敬的权威人士应该告诉我们,他们是否认为(以及为什么认为)我们对特定社交媒体或生成式AI来源的可靠性过高或过低。然后,他们应该让我们每个人自由决定自己要相信多少。