记者|王伟
全世界数十亿人使用的数字平台正在被滥用。
自新冠肺炎疫情爆发以来,一方面,数字平台成为传播科学防疫知识的主战场,发挥了前所未有的作用。另一方面,关于病毒的虚假信息也以极快的速度传播。
根据国际刑警组织的报告,在这一大流行病期间,对儿童的性剥削和性虐待的内容大幅增加。今年1月美国国会山暴力袭击事件也被认为与数字平台传播虚假新闻有关。
在最近发布的报告《推进数字安全:协调全球行动的框架》中,世界经济论坛采访了来自政界、商界、学术界和民间的50多位专家。其中,75%的受访者认为网络平台“有害内容”太多,但平台采取的行动太少。
报告还指出,误导性健康信息、暴力极端主义和恐怖主义以及剥削儿童是迫切需要关注的数字安全问题。
报告作者、世界经济论坛传媒娱乐体育产业总监李凯茜在接受界面新闻采访时表示,上述三个领域的划定主要是根据其紧迫性、对弱势群体的潜在危害风险以及内容类别近期的增长情况。在这些领域有机会促进更好的国际共识和合作。
错误的健康信息
首先,在全球大流行的情况下,迫切需要打击误导性健康信息。考虑到疫苗接种的速度需要超过传染性更强的品种的传播,许多关于疫苗接种的错误信息需要纠正。
解决误导健康的问题一直是许多公共卫生官员的首要任务。伦敦国王学院的一项研究发现,34%的英国人表示,他们看到或听到了阻止公众接种冠状病毒疫苗的信息。Axios-Ipsos最近的一项民意调查显示,被误导的人不太可能接种疫苗。许多平台已经采取具体行动打击虚假信息。包括取缔虚假账户、配合事实核查机构、标注虚假信息等。
该平台还致力于删除有问题的内容。自2020年2月以来,YouTube已经删除了80多万个包含新冠肺炎虚假信息的视频。YouTube还强调,他们的系统可以在观看问题视频之前检测到94%的问题视频。
暴力极端主义和恐怖主义
其次,疫情可能加剧根深蒂固的社会分歧,恐怖主义获得了新的温床。今年年初国会山发生的骚乱,让人们对卡农等组织如何利用互联网进行联动有了更深刻的认识,但这并不是今年才出现的新问题。
新西兰皇家委员会的一份报告强调了YouTube在一些恐怖行为中日益强化的作用。2019年,恐怖分子在克赖斯特彻奇的两座清真寺杀害了51人。袭击的视频也在脸书进行了直播和转播,然后脸书不得不删除了150万个包含这些镜头的视频。
关于暴力极端主义和恐怖主义的内容,李凯茜告诉国际文传电讯社,克赖斯特彻奇和美国国会的骚乱凸显了仇恨和极端主义意识形态抬头的巨大风险以及解决这一问题的挑战。全球互联网反恐论坛(GIFCT)最近呼吁改进分类,这表明目前的数据收集和分析做法可能对当地行为者不够重视。
对儿童的剥削与虐待
yle="font-size:15px;">再次,根据该报告,疫情期间网络上儿童性剥削和性虐待材料(CSEAM)的消费和传播也出现了大幅上涨。未成年人在互联网用户中占了很大一部分,每三个用户中就有一个是18岁以下的。一项调查发现,70%的儿童至少经历过一次网络威胁。更多的儿童被“诱导”,犯罪者通过互联网来创造条件来进行性交易。
根据国际刑警组织在2020年9月的一份报告,在美国,各州关于儿童性虐待材料和诱导的投诉增加了75%至200%不等。Facebook发现超过90%的被投诉内容与此前就已知的内容相似,一半以上的投诉是由六部视频及其副本带来的。欧盟委员会电子隐私指令的最新要求要对数据隐私进行更严格的保护,儿童性虐待材料的投诉量因此下降了46%。
以用户为中心的框架
《报告》显示,多达90%的被调查者认为,由于对“危害”(harm)的定义过于模糊,导致了监管的无效性。《报告》还指出,当前数字媒体生态系统在三个关键领域的运作方式存在缺陷。
第一是缺乏有意义的保护阈值。平台目前报告的指标主要关注已删除内容的绝对数量,但无法根据用户体验提供足够的安全措施。即使诸如“流行率”之类的衡量标准(指用户对有害内容的浏览占所有观看次数的比例)也不能反映某些群体是否由于其性别、种族、民族而更易于在平台上接触这些有害内容。
第二是关于推荐系统中不当影响的标准不足。疫情突出了线上自动推荐中的问题。对于亚马逊推荐算法的最新审计显示,有10.47%的自动推荐都在宣传“误导性健康产品”,对错误信息的点击也往往会影响后来的搜索结果。目前尚不清楚是否以及如何通过广告机制使此类内容更具经济吸引力,它与个人信息的使用有何关联,以及在用户安全方面是否存在利益冲突。
第三是缺乏跨公私部门投诉的相关协议。当用户向平台内部提出投诉时,如何评价投诉的效率?如何进行充分的补救?是解决投诉所需的时间、根据既定政策做出决定的准确性、还是当用户不同意结果时再投诉的便利程度?目前不存在通过行业绩效或其他机制来衡量有效性和效率的投诉协议基线标准,因此无法评估。
针对这些问题,《报告》建议开发一个以用户为中心的框架,并提出了最低伤害阈值、可审计的推荐系统、对用户个人详细信息的使用标准以及充分的投诉协议,以创建使用数字产品和服务的安全基线。
世界经济论坛“媒体、娱乐与信息产业”负责人Farah Lalani告诉界面新闻,与其让平台报告他们从网站上删除了多少有害内容,不如让他们把重点放在提升用户体验上。
“因为最终每个人的体验都是不同的。即使普通用户在平台上观看的大部分内容是安全的,但这并不能解决某些群体由于种族、性别、性取向等原因而更容易成为有害内容的目标这一问题。”