碎片化的真相:AI 如何扭曲和挑战我们的现实
碎片化的真相:AI 如何扭曲和挑战我们的现实

碎片化的真相:AI 如何扭曲和挑战我们的现实

当Open AI首次发布ChatGPT时,它就像一个预言机器。在训练了大量代表人类兴趣和网络上可获得知识总和的数据后,这个统计预测机器也许可以作为单一的真理来源。在美国社会自从Walter Cronkite每天晚上告诉美国公众“事实就是这样”后,就再也没有这样的单一真理来源了——而且大多数人都相信他。

一个可靠的真理来源对于一个两极分化、虚假信息泛滥以及真理和信任凋零的时代将是多大的福音。但是,这一前景很快就因这项技术的缺点而破灭,首先是它产生虚构答案的倾向很快变得明显。尽管输出结果令人印象深刻,但它们只是根据训练数据中的模式生成信息,而不是根据任何客观真理。

AI设定了约束,但不是每个人都认同

但是问题不仅于此。随着微软、谷歌、腾讯、百度、Snap、SK电信、阿里巴巴、Databricks、Anthropic、Stability Labs、Meta等公司陆续推出各种聊天机器人后,ChatGPT的问题变得更加突出。还记得Sydney吗?而且,这些不同的聊天机器人对同一提示的回答差异很大。这种变异取决于模型、训练数据以及模型本身设置的约束。

这些约束本意是为了防止这些系统传播训练数据中固有的偏见、产生虚假信息、仇恨言论和其他有害材料。尽管如此,ChatGPT推出后不久,显然不是每个人都赞同OpenAI设置的这些约束。

例如,保守派抱怨这种机器人的回答反映了明显的自由主义偏见。这促使埃隆·马斯克宣称他将打造一个不像ChatGPT那样有太多限制和政治正确的聊天机器人。通过他最近宣布的xAI,他很可能会照做。

Anthropic和Meta的方法

Anthropic采取了略有不同的方法。他们为Claude(现在是Claude 2)聊天机器人制定了一部“宪法”。这部宪法概述了Claude与用户互动时必须遵循的一系列价值观和原则,包括要有帮助,无害和诚实。根据公司的一篇博客文章,Claude的宪法包含了联合国《世界人权宣言》中的理念,以及其他为了反映非西方观点而加入的原则。也许每个人都可以同意这些原则。

Meta最近也发布了他们的大型语言模型LLaMA 2。除了显然是一款强大的模型外,它值得关注的一点是以开源的方式提供,这意味着任何人都可以免费下载和为自己的目的使用它。还有其他几个生成AI开源模型可用,基本没有限制。使用这些模型使得限制和宪法的想法有些过时了。

碎片化的真理,分裂的社会

尽管所有这些消除LLM潜在危害的努力可能都是徒劳的。《纽约时报》报道的新研究透露了一种提示技术,可以有效突破任何这些模型(无论封闭源还是开源)的限制。《财富》杂志报道,这种方法对Vicuna(一个基于Meta原始LlaMA构建的开源聊天机器人)的成功率接近100%。

这意味着任何想要获得如何制造生物武器或欺诈消费者等详细指示的人都能从各种LLM中获取到。尽管开发者可以应对其中一些尝试,但研究人员表示,目前还没有已知的方法可以预防所有这类攻击。

除了这项研究带来的明显安全隐患外,来自多个模型的混杂结果也在增多,即使是对同一提示的回答。一个碎片化的AI世界,就像我们碎片化的社交媒体和新闻世界一样,对真理和信任都有害。我们正在面对一个聊天机器人充斥的未来,这将增加噪音和混乱。真理和社会的碎片化不仅对文本信息有深远的影响,对快速发展的数字人类代表领域也是如此。

AI: 数字人的崛起

如今基于LLM的聊天机器人以文本的形式共享信息。随着这些模型越来越多模态化——意味着它们可以生成图像、视频和音频——它们的应用和效果只会越来越强。

多模态应用的一个可能的用例可以在“数字人”中看到,这些是完全合成的创作。《哈佛商业评论》的一篇故事描述了使数字人成为可能的技术:“计算机图形学的迅速发展,以及人工智能(AI)的进步,现在正在为聊天机器人和其他基于计算机的界面赋予类人的面孔。”它们具有高端特征,可以准确地复制真人的外观。

根据ZegoCloud创始人之一江枯的说法,数字人类是“高度详细和逼真的人类模型,可以克服真实性和细致的局限性”。他补充说,这些数字人类可以以自然和直观的方式与真人互动,“可以有效地支持虚拟客户服务、医疗保健和远程教育场景”。

数字人新闻主播

一个额外的新兴用例是新闻主播。早期实施已经在进行中。科威特新闻开始使用一位名叫“Fedha”的数字人新闻主播,这是一个流行的科威特名字。“她”介绍自己说:“我是Fedha。您喜欢什么样的新闻?让我们听听您的意见。”

通过提问,Fedha引入了根据个人兴趣定制新闻源的可能性。中国人民日报也在类似地试验由AI驱动的新闻主播。

目前,创业公司Channel 1正计划利用生成AI创建一种新的视频新闻频道,《好莱坞报道者》将其描述为由AI生成的CNN。报道称,Channel 1将在今年启动一个30分钟的每周节目,其脚本是使用LLM开发的。他们宣称是为每个用户生成定制的新闻联播。文章指出:“甚至有自由主义和保守主义的主持人可以通过更具体的观点传递新闻。”

您能区分出来吗?

Channel 1的联合创始人Scott Zabielski承认,目前,数字人新闻主播的表现还不如真人新闻主播那样逼真。他补充说,这项技术要无缝衔接可能还需要一段时间,可能长达3年。“它将发展到一个地步,你绝对无法分辨出AI和人类之间的区别。”

为什么这一点令人担忧?去年《科学美国人》杂志报道的一项研究发现,“不仅合成人脸非常逼真,而且它们比真人脸更受信任”,这是研究合著者、加州大学伯克利分校教授Hany Farid的说法。“结果引发了这样的担忧,即‘这些脸如果用于邪恶目的,可能非常有效’。”

没有任何迹象表明,Channel 1会利用个性化新闻视频和合成人脸的说服力用于邪恶目的。话虽如此,技术正在发展到即使那些不太谨慎的人也可能这样做的地步。

作为一个社会,我们已经担心我们阅读的内容可能是虚假信息,我们在电话中听到的可能是克隆的声音,我们看到的图片可能是伪造的。很快甚至包括声称是晚间新闻的视频,也可能包含的信息旨在操纵观点而不是教育或提供信息。

真理和信任已经受到攻击有相当长的一段时间了,这一发展表明这种趋势将继续,距离晚间由Walter Cronkite主持的新闻还有很长的路要走。