假新闻的散布 是因为我们没有“思考”(图)

作者:思南.艾瑞尔 发表:2021-05-01 19:20
手机版 正体 打赏 0个留言 打印 特大

人与暴龙
假新闻的散布,是因为我们没有“思考”!(图片来源:Adobestock)

假新闻的散布,是因为我们没有“思考”!别丢下判断讯息合理性的责任。

假新闻是个复杂的问题,没有简单的解决方法。竞争和隐私固然应该受到规范,错误讯息却构成一种独特的挑战,因为我们需要选出真相仲裁者赋予他们定义真假的权利,政府通常不适合担任这样的角色。基于这个理由,对抗错误讯息的战争不会、也不该由政策制定者赢得,而是由平台和人民赢得。虽然没有灵丹妙药,但组合不同的方法可以抑制假新闻的扩散,并减轻这类新闻对社会的影响。

1、加上标记

第一个方法是加上标记。我们可以这么想:在超市买东西时,产品上普遍都有标示。我们因此知道产品有多少卡路里、脂肪,以及制作过程是否会经过处理小麦或花生的设备(针对会过敏的消费者)。这种营养表上的标示是法律规定的。但当我们阅读线上新闻时,没有任何标记可以显示我们付费阅听消息的来源和真实性。消息中有什么?消息来源可靠吗?消息是如何搜集的?这个期刊的编辑政策为何?需要多少个独立消息来源来证实才能发表声明?这个消息来源有多常发表经过事实查核的消息?我们对所吃的食物可以得到广泛的讯息,可是对我们付费阅听的新闻却几乎没有任何资料。

研究显示,加上标记可以抑制错误讯息的散播。例如,我的同事大卫.兰德和葛登.潘尼库克发现,在碰到假新闻时,消费者是“懒惰而不是有偏见”。他们如果用分析的角度来看新闻,就比较能够区分真假。“人们看了假新闻会上当,是因为他们没有思考,而不是因为他们带着动机或以保护身份的方式去思考。”鼓励人们思考付费阅听的新闻,能改变他们对新闻的信任程度和分享意愿。

贴标记和轻推人们、促使他们思考正确性,都不算冒犯,而是能逐步扩大的解决方案。但这些解决方案并不完美。在研究中,假新闻标记也降低人们对真新闻的信任,这意味着标记造成人们对新闻的普遍不信任。此外,假新闻的标记可以创造一种“暗示真实效应”(implied truth effect),只是因为假新闻没有被揭穿,所以消费者认为没有标记的新闻必然是正确的。在为假新闻贴上标记的同时,我们必须确保能有效辨别假新闻,同时避免执行上已知的困难。

2、处理制造和散播假讯息背后所蕴含的经济诱因

其次,我们必须处理制造和散播假讯息背后所蕴含的经济诱因。2016年美国总统大选期间,马其顿冒出一波错误讯息,并且从出现在假内容旁的广告赚到钱。这里面并没有政治动机。由于假新闻比真相传播得更远、更快、更深、更广,根据我们的研究,再分享的机率多出70%。我们首先需要切断散播错误讯息的经济诱因,并减少制造错误讯息的经济诱因。

YouTube也采用这个方法来对抗反接种疫苗错误讯息的散播。2019年二月,他们移除反接种疫苗影片上的广告,并停止让反接种疫苗帐号从影片得到收入,让他们完全赚不到广告收入。他们的群体指导原则现在是这样:“有可能引发有害或危险行为(会造成严重的身体、情绪、心理伤害)的内容不适合刊登广告。”这包含“促进或提倡有害的健康或医疗主张或做法”,如“反接种疫苗或爱滋病否认运动……暗示严重病况并不存在或只是刻意捏造的骗局”。

在停止为错误讯息提供广告收入的同时,还拦截相关搜寻并禁止有害内容。他们比较可能成功断绝错误讯息市场的经济收入。

3、学会分辨事实

第三,虽然有关人们的媒体识读能力(media literacy)能否有效对抗假新闻,相关研究仍处于初始阶段,这种认识却可以成为预防偏见和谎言的重要管道。对媒体的认识是设计来教导人们(透过初等和中等教育)以批判角度来思考付费阅听和分享的讯息。这包括教他们如何分辨事实和意见、发现假新闻、了解媒体如何被用来说服大众。

剑桥大学2018年推出一个名为“坏消息”(Bad News)的游戏来教导网络使用者,如何用自己创造假新闻的方式来发现假新闻。在这个网页游戏中,玩家用推特机器人、 photoshop证据、散播开来的阴谋论吸引追踪者,还要同时保持高“可信度分数”以维持自己的说服力。

剑桥大学社交决策实验室主任桑德.范德.林登(Sander van der Linden)说,“我们的游戏有类似心理上打预防针的效果。”即让用户接触小剂量的谎言来达成预防效果。一项有15000个参与者的研究发现,这个游戏让假新闻的可信度平均下降21%,还不影响用户对真实新闻的认知。而且,那些一开始被评估为较容易受到假新闻标题影响的人,从这个游戏获益更多。

4、采用科技解决方案

第四,我们应该采用科技解决方案来对抗错误讯息的散播。机器学习虽然不是灵丹妙药,却可以赶走线上的假讯息。最好的算法会利用内容的特征,如假讯息的语言、结构及主张,也会考量讯息以虚假讯号方式传播时的特征。例如,我们以前的学生、现在在达特茅斯担任教授的赛洛希.乌苏吉于2015年建立一个谎言预测器,它能正确的预测推特上75%谣言的真实性,速度比任何一种公众消息来源都还要快,包括来自记者和执法官员的消息。

科技进展得很快,而现在主要平台所用的高科技算法可能更有效。用来训练新算法的数据库已经可供取用,例如数据科学竞争网站Kaggle上的资料。但科技不是灵丹妙药,人类必须待在这个科技回路中。这个问题大到不是人类能单独解决的,但我们不能放弃判断讯息合法性的责任。为了训练机器学习算法,以及确保人类判断可以引领算法对定义真假的判断,人工标记是不可或缺的。
 

本文整理、节录自思南.艾瑞尔(Sinan Aral)《宣传机器》一书,文章仅代表作者个人立场和观点。由天下文化授权转载,欲阅读完整作品,欢迎参考原书。

责任编辑:帝佐 来源:天下文化

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意