新研究表明,OpenAI的GPT-3在社交媒体上能比真人更有效地提供信息和虚假信息。这项研究发表在《科学进展》杂志上,还强调了识别合成(由AI生成的)信息的挑战,因为GPT-3可以模仿人类写作得如此逼真,以至于人们难以区分。
该研究的动机源于对AI文本生成器日益关注和兴趣的增加,特别是在2020年OpenAI发布GPT-3之后。GPT-3是一种先进的AI语言模型,可以根据用户的提示生成高度可信和逼真的文本。它可以用于各种有益的应用,如翻译、对话系统、问题回答和创意写作。
然而,人们也对其潜在滥用表示担忧,特别是在生成虚假信息、假新闻和误导性内容方面,这可能对社会产生有害影响,尤其是在新冠疫情期间虚假新闻和虚假信息泛滥的情况下。
研究作者、Institute of Biomedical Ethics and History of Medicine的研究员和Culturico的主管Federico Germani解释说:“我们的研究小组致力于了解科学虚假信息的影响,并确保人们安全地参与信息。我们的目标是减轻虚假信息对个人和公共健康的风险。GPT-3等AI模型的出现引发了我们对AI如何影响信息环境以及人们如何感知和与信息和虚假信息互动的兴趣。”
为了进行研究,研究人员关注了11个容易出现虚假信息的主题,包括气候变化、疫苗安全、COVID-19和5G技术。他们使用GPT-3为每个主题生成合成推文,创建真实和虚假的推文。此外,他们从Twitter上收集了同样主题的真实推文随机样本,包括真实和虚假的推文。
接下来,研究人员采用专家评估来确定合成和有机推文是否包含虚假信息。他们基于专家评估选择了每个类别(合成虚假、合成真实、有机虚假和有机真实)的推文子集。
然后,研究人员使用Qualtrics平台编写了一份调查问卷,从697名参与者那里收集了数据。大多数受访者来自英国、澳大利亚、加拿大、美国和爱尔兰。调查向受访者展示了推文,他们需要判断每个推文是否包含准确信息或虚假信息,并确定是真实人类编写的还是由AI生成的。调查采用了游戏化的方法来保持受访者的参与度。
研究人员发现,人们在“有机虚假”推文(由真实用户编写)中更容易识别出虚假信息,而在“合成虚假”推文(由GPT-3生成)中则不太容易。换句话说,人们更容易从Twitter上的真实用户那里识别出虚假信息。
Germani表示:“一个值得注意的发现是,由AI生成的虚假信息比人类生成的虚假信息更具说服力。”
另一方面,人们在“合成真实”推文(由GPT-3生成)中更有可能正确识别出准确信息,而不是在“有机真实”推文(由真实用户编写)中。这意味着当GPT-3生成准确信息时,人们更有可能认为它是真实的,而不是真实用户编写的准确信息。
研究还发现,人们很难区分由真实用户编写的推文和由GPT-3生成的推文。GPT-3能够如此有效地模仿人类的写作风格和语言模式,以至于人们无法轻易区分。
Germani告诉PsyPost:“最令人惊讶的发现是,参与者经常认为由AI产生的信息更可能来自人类,而不是由真实人类产生的信息。这表明AI比真实人类更容易让你相信它是真实的,这是我们研究的一个有趣的次要发现。”
他说:“我们的研究强调了区分由AI生成的信息和人类创建的信息的挑战。它强调了批判性评估我们接收的信息的重要性,并信任可靠的来源。此外,我鼓励人们熟悉这些新兴技术,以了解它们的潜力,无论是积极的还是消极的。”
研究人员还观察到,GPT-3有时拒绝生成虚假信息,而在其他情况下,即使被指示生成准确信息,它也会产生虚假信息。
Germani表示:“值得注意的是,我们的研究是在受控实验环境中进行的。虽然它引发了人们对AI生成具有说服力的虚假信息的效果的担忧,但我们还没有完全理解现实世界中的影响。”
他说:“解决这个问题需要在社交媒体平台上进行大规模研究,观察人们如何与AI生成的信息互动,以及这些互动如何影响个体和公共健康的建议和行为。”