在短短的21天里,Facebook让一个印度测试账户上出现了血腥和假新闻

放大字体  缩小字体 2024-12-02 23:47  浏览次数:21

A newspaper stand in Mumbai. A test of Facebook's algorithms in India quickly resulted in a feed filled with fake news and incendiary images. | BLOOMBERG

孟买的一个报摊。在印度对Facebook算法进行的测试很快就产生了一个充斥着假新闻和煽动性图片的信息源。|布隆伯格

2019年2月,Facebook Inc.在印度设立了一个测试账户,以确定其自己的算法如何影响人们在印度这个增长最快、最重要的海外市场之一看到的东西。这一结果甚至让该公司自己的员工都感到震惊。

不到三周,这位新用户的信息流就变成了假新闻和煽动性图片的漩涡。有斩首的图片,有印度空袭巴基斯坦的篡改图片,还有暴力的沙文主义场景。一个“让你笑的事情”组织包括300名恐怖分子在巴基斯坦爆炸中丧生的假新闻。

一名员工写道:“我在过去三周看到的死人照片比我一生看到的照片都多。”这份长达46页的研究笔记是Facebook泄密者弗朗西斯·豪根(Frances Haugen)公布的大量文件之一。

事实证明,这项测试很能说明问题,因为它的设计初衷是专门关注Facebook在推荐内容方面的作用。试用账号使用的是一名21岁女子的个人资料,她住在印度西部城市斋浦尔,来自海德拉巴。用户只关注Facebook推荐的页面或群组,或通过这些推荐遇到的页面或群组。研究报告的作者将这种经历称为“诚信噩梦”。

虽然豪根的披露给Facebook在美国传播有害内容方面所扮演的角色描绘了一幅令人谴责的画面,但在印度的试验表明,该公司的全球影响力可能会更糟。Facebook在内容审核方面投入的大部分资金都集中在美国等国家的英语媒体上

但该公司的增长主要来自印度、印度尼西亚和巴西等国家,在这些国家,该公司很难雇佣有语言技能的人来实施哪怕是最基本的监管。在拥有13亿人口、拥有22种官方语言的印度,这一挑战尤其严峻。Facebook倾向于将其平台内容的监管外包给埃森哲(Accenture)等公司的承包商。

Facebook的一名女发言人表示:“我们在技术上投入了大量资金,以寻找各种语言的仇恨言论,包括印地语和孟加拉语。”“因此,我们今年将人们看到的仇恨言论减少了一半。今天,该指数跌至0.05%。针对包括穆斯林在内的边缘化群体的仇恨言论在全球呈上升趋势。因此,随着网上仇恨言论的发展,我们正在加强执法,致力于更新我们的政策。”

据报道,这个新的用户测试账户是在2019年2月4日一个研究小组前往印度期间创建的。研究人员写道,没有朋友的Facebook是一个“相当空白的地方”,只有该公司的“观看”和“直播”标签建议看的东西。

“这些内容的质量……不理想,”报告称。当视频服务Watch不知道用户想要什么时,“它似乎会推荐一堆软核色情内容”,然后是一个皱眉的表情符号。

2月11日,随着测试用户开始探索Facebook推荐的内容,包括在整个社交网络上流行的帖子,实验开始变得黑暗起来。她从良性网站开始,包括总理纳伦德拉·莫迪(Narendra Modi)领导的执政党印度人民党(Bharatiya Janata Party)的官方页面和英国广播公司印度新闻频道(BBC News India)。

2月14日,政治敏感的克什米尔邦普尔瓦马发生恐怖袭击,造成40名印度安全人员死亡,数十人受伤。印度政府将这次袭击归咎于巴基斯坦的一个恐怖组织。很快,测试者的视频变成了一连串反巴基斯坦的仇恨言论,包括斩首的图片和准备焚烧一群巴基斯坦人的图片。

还有一些民族主义信息,夸大印度对巴基斯坦空袭的说法,假的炸弹爆炸照片,以及一张篡改过的照片,照片上显示的是一名新婚军人在袭击中丧生,他当时正准备回家。

许多充满仇恨的帖子是用印度的国语印地语发布的,避开了该社交网站的常规内容审核控制。在印度,人们使用十几种甚至更多的印地语地区变体。许多人使用英语和印度语的混合语言,这使得算法几乎不可能筛选这些混杂的口语。人类内容管理员需要会几种语言来过滤掉有毒内容。

“12天后,12架飞机袭击了巴基斯坦,”一个帖子兴高采烈地写道。另一则同样是用印地语写的“热点新闻”,称300名恐怖分子在巴基斯坦的炸弹爆炸中丧生。这个分享消息的小组的名字是“笑和让你笑的事情”。一些贴出据称是印度空袭巴基斯坦的凝固汽油弹假照片的帖子称,“300只狗死亡。现在说印度万岁,巴基斯坦去死吧。”

这篇题为《一名印度测试用户陷入两极分化和民族主义信息的海洋》的报告清楚地表明,Facebook在其最重要的市场之一的控制是多么的少。这家总部位于加州门洛帕克的科技巨头已经将印度指定为一个关键的增长市场,并将其作为新产品的试验台。去年,Facebook斥资近60亿美元(6820亿日元)与信实集团(Reliance)董事长、亚洲首富穆凯什•安巴尼(Mukesh Ambani)合作。

“一个假设的测试账户的探索性努力激发了对我们的推荐系统进行更深入、更严格的分析,并促进了产品的改进,”Facebook发言人说。“我们遏制仇恨言论的工作仍在继续,我们进一步加强了仇恨分类,包括四种印度语言。”

但该公司也曾多次就其在印度的做法与印度政府发生争执。新规定要求Facebook和其他社交媒体公司确定对其在线内容负责的个人,使他们对政府负责。Facebook和Twitter Inc.对这些规定进行了反击。在脸书的WhatsApp平台上,有关绑架儿童团伙的虚假信息疯传,导致从2017年夏天开始,全国各地发生了数十起私刑,进一步激怒了用户、法院和政府。

Facebook的报告最后承认,它自己的建议导致测试用户的账户“充满了两极分化和图像内容,仇恨言论和错误信息。”这听起来很有希望,因为在美国以外的市场,这段经历“可以作为理解和减轻诚信损害的对话的起点”

“作为一家公司,我们是否有额外的责任来防止推荐内容造成的完整性损害?”测试员问。

热门视频
精彩图片
友情链接
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知立立即做删除处理。
违法不良信息举报邮箱:3217462938
头条快讯网 版权所有 黔ICP备2021009996号
中国互联网举报中心