Mozilla的一项调查发现,YouTube的推荐算法倾向于向用户推荐有问题的视频,包括仇恨言论、政治和科学错误信息以及其他可能违反YouTube社区准则的内容。YouTube是世界上访问量第二大的网站,该平台上70%的观看时间是由推荐算法驱动的。然而在2020年,Mozilla、反诽谤联盟、纽约时报、华盛顿邮报、华尔街日报以及其他几个组织、学术研究人员和出版物的调查表明,YouTube有可能误导、分裂、并通过其推荐算法激化用户,让用户走向极端。作为回应,Mozilla启动了RegretsReporter项目。这是一个浏览器扩展,允许用户报告“令人遗憾”或后悔观看的内容。在10月份的调查中,Mozilla总共收集了来自91个国家的1,622名个人用户的3,362份报告,然后聘请了埃克塞特大学的42名研究人员审查提交的内容是否违反了YouTube的政策。结果显示,被标记为有问题的视频中有71%来自YouTube自己的推荐,推荐的视频被志愿者标记的可能性比他们搜索的视频高40%,这表明包含有争议元素的内容受到更系统的审查。其中,大约9%后来因违反平台政策而被YouTube删除。此外,在非英语国家(尤其是巴西、德国和法国),用户被推荐的可疑内容率又高出60%,与疫情相关的问题视频在非英语国家更受欢迎.中尤为常见。因此,Mozilla表示YouTube在管理用户流媒体内容方面造成了“重大损害”并且采取了错误的方法。并提出了几项建议,包括透明的推荐制度、加强审查和监督、为消费者提供保护自身权益的设置等。完整的调查报告可以在这里查看。本文转载自OSCHINA标题:YouTube推荐算法暴露潜在有害视频地址:https://www.oschina.net/news/149518/youtube-algorithm-problem
