**划重点:**
1. 研究发现,近千名参与者对与COVID-19有关的20篇假新闻进行评分,结果显示人工智能生成的假新闻在感知准确度上略低于人类制造的。
2. 调查显示,大约12%的参与者愿意在社交媒体上分享这些假新闻,而人工智能生成的和人类制造的假新闻在分享意愿上没有明显差异。
3. 社会经济因素,包括年龄、政治取向和认知反思能力,影响用户是否更容易相信人工智能生成的假新闻,其中保守派参与者更容易信以为真。
站长之家(ChinaZ.com) 2月26日 消息:近期一项研究表明,人工智能生成和人类制造的假新闻在用户感知上存在一定差异。来自洛桑大学和慕尼黑大学机器学习中心的研究人员对近千名参与者进行了实验,评估了20篇涉及COVID-19的假新闻,其中一半由人工智能GPT-4生成,另一半来自事实检查网站如PolitiFact和Snopes。
参与者在一项在线实验中被要求对这些假新闻文章的感知准确度进行5点李克特量表评分,并标明他们是否愿意在社交媒体上分享这些新闻。
研究结果显示,人工智能生成的假新闻在感知准确度上略低于人类制造的,但在社交媒体分享意愿上两者之间没有明显差异,均有约12%的参与者愿意分享。
除此之外,研究还发现一些社会经济因素对用户是否更容易相信人工智能生成的假新闻产生了影响。年龄、政治取向和认知反思能力等因素都起到了一定作用,尤其是保守派参与者更容易相信人工智能生成的假新闻。
研究建议,为了帮助用户区分真假内容,需要引入新的标签,并强调教育人们了解人工智能生成的假新闻的风险,可能需要采取监管措施以保护某些容易受到影响的群体。这表明在人工智能时代,我们需要更深入地思考如何应对假新闻的挑战,以确保信息的准确性和可信度。