近日,AI聊天机器人在应对阴谋论方面取得了重大进展。一篇发表在国际顶级学术期刊《Science》上的论文显示,GPT-4 Turbo模型能够在对话中通过定制化证据和个性化聊天,显著降低人们对阴谋论的信任度,且效果持续了至少两个月。这项研究不仅揭示了AI在辟谣方面的潜力,还展示了负责任地部署生成式AI的重要性。
有力的证据能否改变人们的信念?
无论是关于月球登陆的虚假说法,还是关于新冠疫苗含有微芯片的谣言,阴谋论屡见不鲜,甚至可能带来危险的后果。许多心理学理论认为,人们之所以相信这些阴谋论,是因为它们能满足某些潜在的心理需求,因此很难通过事实和反证据来说服他们。然而,麻省理工学院的研究团队对此提出了质疑。他们认为,强有力的证据或许能够帮助人们从阴谋论的“无底洞”中走出来。
论文第一作者托马斯·科斯特洛(Thomas H. Costello)表示,传统观点认为,相信阴谋论的人很难改变他们的看法,即使面对证据。但他们的研究结果表明,这种观点并不完全正确。
GPT-4 Turbo对话实验
为了验证假设,研究人员利用大语言模型GPT-4 Turbo与2190名参与者进行了三轮对话。参与者首先阐述了他们所相信的阴谋论及其支持证据,并对自己的信念进行了评分。随后,GPT-4 Turbo针对这些证据进行了反驳,试图降低参与者对阴谋论的信任度。实验结果显示,与AI讨论阴谋论的参与者对阴谋论的信任度平均降低了20%,且这种效果持续了至少两个月。
研究团队指出,这种效果在各种阴谋论中均有所体现,包括经典阴谋论如暗杀肯尼迪、外星人和光明会,以及与当前热点事件相关的阴谋论如新冠疫情和美国总统大选。此外,AI并未减少参与者对真实阴谋论的信任度。
研究的实际应用
研究团队进一步分析了效果的大小,发现它取决于多种因素,包括阴谋论对参与者的重要性以及他们对AI的信任程度。约有四分之一的参与者在实验结束后不再相信原先的阴谋论。
研究人员还发现,降低对某个阴谋论的信任度还能在一定程度上降低对其他阴谋论的信任度。这种方法在现实世界中的应用前景广泛,例如AI可以回复社交媒体上的阴谋论相关帖子。
此外,一位专业人员评估了AI提出的128个样本,其中99.2%是正确的,0.8%存在误导性,没有虚假信息。
专家的观点
虽然这项研究展示了AI在辟谣方面的潜力,但也有人对其实际应用持怀疑态度。剑桥大学教授桑德尔·范·德林登(Sander van der Linden)认为,人们是否愿意在现实世界中与这样的AI互动仍需验证。他还提到,目前尚不清楚如果参与者与匿名人类聊天是否会得到类似的结果,同时也有关于AI如何说服阴谋论者的问题,因为该系统还使用了同情和肯定等策略。
不过,范·德林登补充说:“总的来说,这是一个非常新颖且可能重要的发现,也是AI如何被用来打击错误信息的一个很好例证。”
本文来源: 智东西【阅读原文】