我的朋友被社交媒体的算法推荐“迷住了”,加入了一个激进组织事情就是这样。当时,我的一个朋友约翰正在申请博士学位。在麦吉尔大学攻读生物学,我也在学习生物化学。因为在同一个药厂实习,我们很快就热身了,我们经常在我家的地下室打球、录视频。但一年后我发现约翰变了。他开始狂热地信仰宗教,总是和我争论宗教知识应该是世界上唯一的科学。也是从那个时候开始,约翰改名为叶海亚,留起了胡子,说话带着明显的口音。与此同时,约翰的脸书账户上开始涌现出大量激进内容,部分视频带有明显的对美国和加拿大所谓“异教徒”的仇恨和恶意。上次与约翰交谈时,我知道特勤局已经调查他几个月了。结合我在谷歌和DeepMind的实习经历,以及我在算法推荐系统领域的学习,John的事件让我想到了现在风头正盛的基于推荐算法的社交媒体。就约翰而言,可以肯定的是,约翰逐渐变得激进与Facebook的推荐算法有着密切的关系。然而,目前还不确定的是,什么样的算法推荐让约翰开始改变自己的信念。当John的Facebook帖子越来越极端的时候,这个时候用什么样的算法来获取newsfeed?当我们尝试了所有基于算法推荐的社交媒体的甜头之后,现在,严重的负面影响开始出现。美国最近发生的一系列事件可以印证这一点,尤其是当平台自动为你推荐一些激进的内容或发布一些激进组织的信息时。所以我也开始思考,当我在推特或其他新闻源中点击一些激进的视频时,我是否也在无形中促成了它的形成?在社交媒体中使用机器学习的风险正在增加。随着智能手机的普及,我们逐渐习惯使用虚拟助手、社交媒体等作为新闻来源,帮助我们了解世界。久而久之,平台的倾向性也会影响我们自身的倾向性甚至行为。这些推荐机制的原理来源于机器学习。机器学习算法是一组指令,可帮助机器从数据中的模式中学习,这些模式也可帮助人们做出决策。例如,新闻源可以使用称为推荐系统的机器学习来创建。这在广告领域的应用可能更为广泛。广告商想知道的是用户最有可能点击什么样的广告,从而更大程度地分配资源。但这种好处的背后是不可动摇的激励机制和权力结构。Facebook、Apple和Google等公司仍在忙于使用会员费和广告费来赚取收入。对于“房间里的大象”,大家都选择了视而不见。2020年,六家FAANGM公司(Facebook、亚马逊、苹果、Netflix、谷歌和微软)的商业模式构成了标准普尔季度指数,并贡献了大部分收益,这些公司的员工平均年薪为339,574美元。当这种现象变得普遍时,社交媒体可以使用机器学习来放大现有的不平等现象,并针对易受错误信息影响的人群发布更激进的内容。最大的证据是Facebook成立了反恐团队,但讽刺的是,其自身对机器学习的依赖也有着同样的商业动机。换句话说,当更多的内容被屏蔽时,更多的人被禁止,公司就会损失收入。目前,脸书已承认其对缅甸的报道有失偏颇。同样,Twitter、YouTube和Facebook在最近的美国政治事件中也发挥了作用,Facebook的举报人承认,全球政治操纵能力部分是通过机器学习创造的,这可能会增加地缘政治风险。对于像约翰这样可能因为自身经历而受到社交媒体影响的人,我们需要在社会层面与相对自由的道德和法律专家以及机器学习研究专家进行更有针对性的讨论。如何减轻机器学习的社会风险鉴于算法社交媒体的有害影响,人们很好奇存在哪些法律途径来规范由机器学习驱动的企业。例如,在个人层面上,我们都容易受到某些类型的新闻的影响,这些新闻受法律保护,不能受到歧视。也就是说,社交媒体利用我们的“弱点”实际上是非法的。所以问题是,哪些途径可以帮助保护机器学习的好处,同时保护弱势群体免受有害影响?假设科学家找到确凿的证据表明某些人更容易沉迷于基于种族、性别或收入的机器学习推荐的内容,那么我们是否可以说发生了歧视,从而降低了公司的市场价值?毕竟,社交媒体成瘾对公司来说意味着更深的用户粘性和参与度,但业务指标上好看的数字未必能让公司受其影响的人变得更好。此外,更直接的方式是减少广告收入。构建AI的实验室正在亏损,这意味着当收入下降到一定水平时,它们将率先离开。与此同时,支撑谷歌、Facebook和其他大公司业务的机器学习工具随着开源的趋势变得越来越容易获得。随着广告收入的持续下降,算法偏差将成为主流公众知识。收入的持续下降、用户隐私意识和开源代码都可以成为社交媒体健康发展的动力,而不是通过数据来剥削用户。学术实验室也可以通过领导透明的开源工作来发挥作用,以帮助了解机器学习系统中的利益相关者如何为造福整个社会的研究做出贡献。但是,在我们等待并希望那些负责人创造改变的同时,作为个人,我们可以做很多事情来理解和学习如何管理机器学习算法在我们生活的许多领域带来的风险。个人应该怎么办?正如上文所述,这些策略本身实际上是在告诉自己,要为自己和他人提倡和收集N=1的数据,进而可能对大型社交平台的动机有更深刻的理解。与受影响的人开始对话:融入工作环境。如果您正在构建机器学习工具,请实际使用它们。考虑该工具可能会影响哪些人并与这些人交谈。对话可以简要描述正在完成的工作,以及驱动该技术的数据和商业利益。例如,我在描述我的机器学习和心理健康研究时得到了强烈的负面反馈,这影响了研究并帮助修正了课程。这种与我们的朋友、家人和社区进行的非正式民族志实地考察被低估了,它提供了一种低风险、高影响力的方式来告知我们所学到的东西:与谁一起以及为谁。请注意,人们在工业界和学术界研究不同的事物。行业往往是一条单行道,要警惕金笼效应,那些赚了很多钱的人可能不愿意考虑或讨论机器学习的风险,或者可能因为害怕被解雇而避免研究它。例如,算法公平性领域之所以受到关注,是因为微软禁止其研究人员研究歧视性广告。同样,谷歌的AI和道德团队因一篇强调谷歌搜索模型缺陷的论文而被解雇。此类事件对相关人员来说可能代价高昂,这就是为什么在商业利益凌驾于公共利益和学术自由之上的罕见情况下,当他们能够直言不讳、报告或以其他方式告知公众时,需要额外的支持。阻止位置并清除隐私设置。如果80亿人选择利用他们的私人数据来个性化广告,那么激励错误信息的商业模式将很难发展。使用uBlock或其他浏览器扩展来阻止所有新闻提要或HTML元素以及在YouTube等上使用机器学习创建的内容;取消关注Facebook上的所有人以清除新闻提要。通过启用自动删除位置、网络和语音记录的历史记录来删除数据。我为私利牺牲的数据越少,我注意到的认知负荷就越少,这可能是因为涉及我的数据的预期场景、可能应用的机器学习系统以及系统产生的第二次世界范围的影响。减少对二次和三次影响的担忧。希望本文能给大家提供一个解决问题的方法,找出问题可能出现在什么地方,问题是如何发展的,我们应该采取什么方法来解决。当然,回到本文的主题,无论是激进的态度本身,还是错误的信息,我们都应该时刻保持警惕,防止那些无法很好地管理机器学习的商业动机,做出不明智的决定。相关报道:https://www.reddit.com/r/MachineLearning/comments/l8n1ic/discussion_how_much_responsibility_do_people_who/https://jaan.io/my-friend-radicalized-this-made-me-rethink-how-i-build-AI【本文为栏目组织大数据文摘原创翻译,微信公众号“大数据文摘(id:BigDataDigest)”】点此查看作者更多好文
