Kim Albrecht设计的一个新的数据可视化工具揭示了ChatGPT组织信息的意想不到的方式。
当ChatGPT在2022年11月推出时,Kim Albrecht像其他数百万人一样创建了一个账户。研究数据可视化的Albrecht想更好地了解这个AI包含的信息种类,以及它缺少什么。
在过去的10个月里,Albrecht已经向ChatGPT的应用程序接口提交了超过1700个提示,询问该平台拥有什么知识。他的研究以“人工世界观”(Artificial Worldviews)的发布达到了高潮,这是一个交互式地图,类似于一个星系,其中包含了超过32000颗星星,象征着该应用在各种主题上给出的答案。
“我希望创建一个界面,让人们可以轻松地深入其中,在他们具有知识的领域内找到这些信息,”Albrecht说。“系统总会有一种倾向,对我来说,现在关键是试图理解这种倾向是什么。”
起初,Albrecht给界面一个极其不具体的问题:它拥有什么知识?ChatGPT给出了模糊的输出,列出了广泛的主题,如食物、地理和医药。从那里,Albrecht请ChatGPT告诉他它对这些子领域了解多少。
当Albrecht深入研究时,他的发现让他感到惊讶。他发现在提到最频繁的五位人物中,有三位是从事环境和保护领域的女性。《沉默的春天》的作者Rachel Carson被提及73次,超过了其他任何人。灵长类动物学家Jane Goodall以60次提及位居第二。肯尼亚活动家Wangari Maathai在亚里士多德和艾萨克·牛顿之间排名第四,被提及44次。
在Albrecht的地图上,这些主要节点引发了关于ChatGPT如何解析提示并获取答案的问题。“问题是:Rachel Carson和Jane Goodall是那些研究尤其广泛传播的个体吗?是跨越领域和类别的研究吗?还是其他事情正在发生?”Albrecht在“人工世界观”网站上提问。“也许OpenAI设定了某些参数,导致了这样一个列表的设计……还是GPT正在成为通用AI,非常关心地球和环境?”
尽管Albrecht认为发现ChatGPT的结果似乎更偏向女性、更多元、宗教意识较低,似乎比其他数据库更关心环境(例如,Pantheon Project中的第一个女性是耶稣的母亲玛丽,排名第33位),他警告说,可能并不是所有的AI界面都会产生类似的结果。
随着ChatGPT变得越来越受欢迎,研究人员开始关注该平台所带来的一些缺陷和危险,从错误信息到危险内容的推广不等。Albrecht指出,因为ChatGPT有审查指南,对战争、性等有害或困难的主题进行审查,他没有收到与这些主题有关的许多输出。
“有很多事情都是人性的一部分,或者是世界的一部分,但这个系统根本没有(显示出来),”他说。
由于ChatGPT仍在不断发展和优化对某些主题的审查,Albrecht表示,最近几个月他的搜索结果比去年秋天更受限制。与此同时,AI平台推广的内容可能是它自身最不受阻碍的版本。
“我们现在有一个有趣的时刻,因为这些系统还没有完全被资本主义所占据,” Albrecht解释道,他认为ChatGPT最终可能会像谷歌通过其搜索结果推广某些内容一样,寻求广告或赞助。“从这个地图得到的版本,在某种程度上可能比未来几年的版本更加纯粹。”
总体而言,Albrecht希望他的地图能成为ChatGPT用户的工具,用来考虑当提出问题或给出提示时,平台呈现的内容是什么,为什么会呈现这样的内容,以及谁可能是界面训练数据的幕后推手。
“谁应该定义最重要的摄影师列表,或者医学界最重要的人物?没有人能够确定,”他说。“我认为至少这个地图可以作为一个工具,让你可以将自己的信仰与其他系统的信仰进行对比。”