Facebook阻碍了其负责拦截有害内容的团队

放大字体  缩小字体 2024-12-03 08:48  浏览次数:17

Facebook publicly touted its investments in technology and engineers to its platform safe, but the company recognized internally that those efforts mostly failed. | AFP-JIJI

Facebook公开宣传其在技术和工程师方面的投资,以确保其平台的安全,但公司内部认识到,这些努力大多以失败告终。| AFP-JIJI

七个月前,马克•扎克伯格(Mark Zuckerberg)向国会作证说,Facebook Inc.花费了数十亿美元来屏蔽其平台上的有害内容。然而,他自己的一些员工已经意识到,他们在压制令人反感的言论方面做得不够。

大量内部文件显示,Facebook的Integrity团队正在进行一场必输无疑的战斗,他们的任务是阻止有害帖子的传播。这些文件是向美国证券交易委员会(U.S. Securities and Exchange Commission)披露的信息的一部分,并由Frances Haugen的法律顾问以编辑过的形式提供给了国会。Frances Haugen曾是Integrity团队的一名产品经理,在今年早些时候离开Facebook之前曾在该团队工作。包括彭博新闻社(Bloomberg news)在内的一些新闻机构获得了编辑后的版本。

详细的报告显示,这家社交媒体巨头的算法是为了让人们留在平台上,通过向他们展示广告,他们宝贵的注意力被货币化。致力于诚信措施的员工意识到,他们的工具无法与一个旨在促进内容的系统相匹敌,这些内容可能会让人们滚动、点赞、评论和分享。这场内部斗争在“新闻动态”(News Feed)上展开。“新闻动态”是Facebook的个性化主页,由该公司的机器学习算法提供信息。

这些文件还显示,尽管Facebook公开吹嘘其在技术和工程师方面的投资,以阻止有害内容进入其平台,该公司内部意识到,这些努力往往会失败,员工提出的通过调整Facebook算法决定显示哪些内容来解决问题的建议,往往会受到阻碍,甚至被否决。

Facebook发言人乔·奥斯本(Joe Osborne)表示,认为Facebook鼓励不良内容的说法是不准确的,他还引用了外部研究,该研究发现,该平台并不是导致两极分化的重要因素。

“我们的团队每天都必须在保护数十亿人公开表达自己的能力和保持我们平台安全、积极的需求之间取得平衡,”奥斯本在一封回答问题的电子邮件中说。“我们将继续在打击虚假信息和有害内容传播方面取得重大进展。”

公民的完整性

诚信团队始于2018年的公民诚信(Civic Integrity),由负责构建选举日提醒和选民资源等工具的产品团队发展而来。但据一名曾参与讨论“正直团队”成立事宜的Facebook前员工说,即使扎克伯格同意创建“正直团队”,他最初也没有增加团队人数,实际上迫使这个小团队把时间分配在与选举相关的工具和监督有害的政治内容上。

随着Integrity团队不断成长,建立了负责监管其他类型危险内容的产品,文件显示,它在推出新举措时始终面临着很高的障碍,必须解释对增长和参与的任何潜在影响。他们还发现,他们用于探测和处理攻击性材料的工具不能胜任这项任务。

该团队面临的一个主要问题是,根据2019年10月的一份报告,即使将有害内容降级90%,也不会影响帖子的推广,在某些情况下,旨在提高参与度的算法会放大数百倍的帖子。有问题的内容可能仍然是用户看到的最重要的内容之一。

“我担心Feed正在变成一场军备竞赛,”报告的作者说,他哀叹不同的团队如何编写代码来设计系统,使其以特定的方式运作,有时还会产生相互矛盾的目的。

2019年12月的另一份文件承认,Facebook负责自动排名流程在News Feed上排序内容的方式,并由此影响用户的世界观。

2019年12月的这份文件称,我们有“令人信服的证据表明,我们的核心产品机制,如病毒式传播、推荐和优化参与度,是这些类型的言论在平台上蓬勃发展的重要部分”。“我们平台的机制不是中立的。”

在公开场合,包括首席执行官扎克伯格在内的Facebook高管把这个平台塑造成一个言论自由的公共论坛,而不是一个出版商,通过算法来行使编辑控制权,决定哪些内容会像病毒一样传播。根据12月的文件,Facebook内部员工认识到“病毒式传播与言论自由是完全不同的问题,这是由我们创建的算法实现的。”

“分裂,可恶的内容”

直到2009年,信息流都是按时间顺序显示来自朋友的新闻文章、照片和帖子。随着公司的发展,吸引了更多的用户,销售了更多的广告,Facebook引入了算法来对更大量的内容进行分类,并对用户的体验进行重新排序,让他们继续回到平台上。根据这份2019年12月的文件,员工担心他们对人们看到的和传播的内容承担更多的编辑责任,包括“仇恨言论、分裂的政治言论和错误信息”。

Facebook whistle-blower Frances Haugen has said that the company misled the public and shareholders a<em></em>bout the harmful effects of its platforms. | BLOOMBERG

Facebook的告密者Frances Haugen表示,该公司误导了公众和股东 关于其平台的有害影响。|布隆伯格

豪根向美国证券交易委员会(SEC)提交的八项投诉中,有一项提到了Facebook算法的变化,她复制了公司的内部文件,以支持她对该公司行为的担忧。在一封写给美国证券交易委员会告密者办公室的信中,Haugen表示,Facebook在算法改变上误导投资者,强调“有意义的社交互动”,如评论和分享,但最终增加了“分裂的、可恶的内容”。

这封信引用了扎克伯格在国会和收益电话会议上的公开声明,据豪根说,这些声明与强调这种算法变化危害的内部文件相矛盾。

据发言人奥斯本说,Facebook提交给美国证券交易委员会的文件披露了公司面临的挑战,包括保持平台的安全。他说,Facebook“相信我们的披露会给投资者提供他们做出明智决定所需的信息。”

SEC的起诉书中包括一名即将离职的员工的一份说明,内容是该公司为何没有针对内部发现的严重风险采取行动。这名员工描述说,他多次看到有希望的干预措施“被过早地扼杀或严重限制”。

豪根表示,其他解决方案从未取得进展,因为对于一家以增长指标为动力的公司来说,它们不是优先考虑的问题。她说,一名数据科学家提出了一项长期改善Facebook产品的改革,“可能会在这方面受挫,因为人们认为它不会产生立竿见的效果,也不会在三到六个月内完成并扩大规模,它会被扔在地板上。”

正直团队经历了结构上的变化,这增加了许多成员对他们西西弗斯任务的挫折感。2020年12月,美国总统大选结束后,尽管有关选举结果的错误信息仍在不断传播,但公民廉正团队被解散,并入了后来被称为“中央廉正”的组织。豪根曾是“公民诚信”团队的一员,她说,正是在那个时候,她意识到Facebook“在自身利益和公共利益之间存在利益冲突”。

豪根对国会表示:“这真的感觉像是Facebook对人们做出的承诺的背叛,这些人为了保证选举的安全做出了很大的牺牲,基本上解散了我们的社区。”

放大的信息

对于软件工程师来说,开发一个能够正确识别有害信息并对其采取行动的系统并不容易——无论是用英语还是Facebook上使用的大约140种其他语言。部分问题在于为算法提供动力的输入,它们根据用户发出的信号进行操作,这些信号可能是模糊的,甚至是矛盾的。

一份文件举了一个例子,一个人评论“哈哈”,这可能是对有趣帖子的正面反应,也可能是对含有可疑医疗建议的帖子的负面反应。算法不知道其中的区别。

Facebook员工还强调,用户需要有一种方式来表示不喜欢,而不会在不知不觉中放大信息。例如,一个不赞成的评论,甚至是一个愤怒的表情符号,都会提升一个帖子的排名,促进它的传播。

Facebook员工提出了另一种工具,通过降级所谓的“深度重塑”(deep reres)来解决虚假信息,所谓“深度重塑”是指非原发帖人的朋友或追随者的用户转发的内容。Facebook的数据显示,这些转发助长了该平台上的虚假信息。

该研究小组估计,降低重估可能对减少错误信息有显著效果。但Haugen表示,Facebook没有实施这一提议,因为这将减少平台上的内容数量。

Facebook Chairman and CEO Mark Zuckerberg testifies at a House Financial Services Committee hearing in Washington.

Facebook董事长兼首席执行官马克·扎克伯格在华盛顿众议院金融服务委员会听证会上作证。

“resres是一根拐杖。它们放大了系统中的内容量。它们是有成本的,但它们是Facebook不愿意放弃的拐杖,”她在接受媒体财团采访时说。

脸书发言人奥斯本表示,该公司在极少数情况下会减少与原始来源进一步分离的人分享的内容。他说,这种干预被谨慎使用,因为它对所有内容一视同仁,既影响善意的言论,也影响错误的信息。

近年来,Facebook采取了一些措施,让人们对新闻源的内容有更多的控制权。该公司表示,用户现在有了一种更简单的方式来表示他们想要更多最近的帖子,而不是机器学习排名的内容,人们可以将一些朋友或信息来源标记为收藏。

“百分之百的控制”

泄露的文件还显示出一些员工的担忧,他们的Facebook同事与民选官员互动,对内容决定有太多的控制。根据2020年12月的一份文件,“当我们的算法发生重大变化时”,公共政策团队的成员可以参与进来。

“Facebook经常根据公共政策的输入来决定算法,”文件说。公共政策团队的成员“通常会否决那些对政治敏感的参与者有重大负面影响的项目。”

该声明主张在Facebook的政治角色员工和平台设计人员之间设置防火墙,将该公司比作将业务和编辑部门分离的传统媒体机构。

奥斯本表示,制定Facebook社区标准的团队不仅要从公共政策部门征求意见,还要从公司负责运营、工程、人权、公民权利、安全和通信的部门征求意见。

Facebook对内容实施编辑控制的认识,促使华盛顿再次呼吁该公司对商业决策负责——由平台的自动化流程执行——决定消费者看到什么内容。国会已经提出了几项法案,旨在削弱对网络平台的法律保护,即1996年一项法律的第230条。

Facebook主张更新互联网监管,扎克伯格今年早些时候告诉国会,公司只有在采取最佳做法删除非法内容时,才应该享受第230条款的责任保护。

豪根在国会作证时强调了监管内容的挑战,内容很难分类,而且往往取决于上下文。她主张采用一种不同的方法:减少算法的干预,回归到更按时间顺序排列的用户体验,在这种体验中,信息的移动速度会更慢。

“他们对自己的算法有百分之百的控制,”豪根告诉国会。“Facebook优先考虑增长、病毒式传播和反应性,而不是公共安全,这不应该得到免费通行证。他们不应该得到免费通行证,因为他们现在用我们的安全来支付他们的利润。”

热门视频
精彩图片
友情链接
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知立立即做删除处理。
违法不良信息举报邮箱:3217462938
头条快讯网 版权所有 黔ICP备2021009996号
中国互联网举报中心