算法告诉我们如何思考,它正在改变我们。随着计算机学习如何模仿,我们是否开始变得越来越像它们? 硅谷越来越多地预测人们将如何回复电子邮件,他们将如何反应某人的Instagram照片,以及越来越多的人们有资格获得哪些政府服务,很快,很快谷歌语音助手GoogleAssistant的到来将是能够打电话给人们实时预约理发师。 从医院到学校再到法庭,我们几乎无处不在地使用算法。我们被各种自动化系统所包围。几行代码就可以告诉我们要看什么媒体内容,和谁约会,甚至告诉司法系统要把谁送进监狱。 我们赋予这些程序如此大的决策权和控制权是对的吗? 我们痴迷于数学程序,因为它们可以快速准确地回答一系列复杂的问题。机器学习系统已经应用到我们现代社会的几乎每一个领域。 算法如何影响我们的日常生活?在瞬息万变的世界中,机器正在快速而出色地学习人类的行为方式、我们喜欢什么、讨厌什么,以及什么对我们最有利。我们现在生活在一个由预测技术主导的空间。 算法通过分析和组织海量数据为我们提供即时和相关的结果,极大地改变了我们的生活。多年来,我们已经让公司收集了大量数据,并且公司已经能够就最适合我们的方式向我们提供建议。 Google的母公司Alphabet或Amazon等公司一直在为他们的算法提供他们从我们那里收集的数据,并指示AI使用这些信息来适应我们的需求并变得更像我们。然而,当我们习惯了这些方便的功能后,我们的言行举止会更像一台计算机吗? “算法本身并不公平,因为成功是由构建模型的人定义的。”-数据科学家CathyO'Neil想象一个不太遥远的未来,我们的行为将由算法引导或支配。事实上,这已经在发生了。 去年10月,谷歌为其电子邮件服务Gmail推出了名为“智能回复”的智能回复功能,旨在帮助您撰写回复或快速回复。Assistant功能此后风靡互联网,许多人批评它具有侵入性,让它看起来像一台机器,甚至暗示它的响应最终可能会影响我们的沟通方式,甚至可能会改变电子邮件的规范. 算法的主要问题是,随着它们变得如此庞大和复杂,它们开始对我们当前的社会产生负面影响并危及民主。随着机器学习系统在社会的许多领域变得越来越普遍,算法会接管世界并接管我们的思想吗? 现在,让我们看看Facebook做了什么。早在2015年,他们的新新闻提要旨在筛选用户提要,将其变成个性化的报纸,让用户能够看到与他们之前喜欢、分享和评论的内容相关的新闻。事物。 “个性化”算法的问题在于它们将用户置于“过滤气泡”或“回音室”中。在现实生活中,大多数人不太可能接受他们认为令人困惑、烦人、不正确或讨厌的观点。就Facebook的算法而言,该公司给用户他们想看的东西,因此每个用户的feed本身就变成了一个独特的世界,一个独特的现实。 过滤气泡让公开争论变得越来越困难,因为从系统的角度来看,信息和虚假信息看起来完全一样。正如RogerMcNamee最近在《时代》(Time)杂志上所写的那样,“在Facebook上,事实并不绝对;他们是一个选择,最初留给用户和他们的朋友来决定,然后通过算法进行放大,以促进分发和用户交互。” 过滤泡泡会产生一种错觉,即每个人都认为我们在做同样的事情,或者拥有相同的习惯。我们已经知道,在Facebook上,该算法通过加剧两极分化加剧了这个问题,最终损害了民主。有证据表明,算法可能影响了英国公投或2016年美国总统大选的结果。 “Facebook的算法偏爱极端信息而不是中性信息,这允许虚假信息凌驾于真实信息之上,阴谋论凌驾于事实之上。”——硅谷投资人罗杰·麦克纳米(RogerMcNamee) 当今世界,信息无处不在,筛选信息对某些人来说可能是一个巨大的挑战。如果使用得当,人工智能可能会增强人们的在线体验,或者帮助人们快速处理不断增长的内容信息负载。然而,为了正常运行,算法需要关于现实世界中发生的事情的准确数据。 公司和政府需要确保来自算法的数据没有偏见和准确。由于没有什么是完美的,许多算法中已经存在带有自然偏差的数据估计,这不仅对我们的网络世界而且对现实世界都构成了危险。 倡导更强大的监管框架是必要的,这样我们就不会陷入技术荒野。 我们也应该非常小心我们赋予算法的权力。人们越来越关注算法带来的透明度问题,算法做出的决策和过程背后的伦理含义,以及影响人们工作和生活的社会后果。例如,在法庭上使用人工智能可能会增加对少数群体的偏见和歧视,因为它考虑了“风险”因素,例如人们居住的地方以及他们与犯罪的关系。这些算法可能会犯下灾难性的系统性错误,将真正无辜的人送进监狱。 “我们有失去人性的危险吗?” 安全专家BruceSchneier在他的书《点击这里杀死所有人》(点击此处杀死所有人)中写道,“如果我们让计算机为我们思考,而底层输入数据是错误的,它们就会思考错误,我们可能永远不会知道” 英国伦敦大学学院数学家HannahFry带领我们进入一个计算机可以自由运行的世界。在她的新书《世界你好:在算法的时代里做个人类》(你好世界:算法时代的人类)中,她认为,作为公民,我们应该更多地关注键盘背后的人,那些编写算法的人。 “我们不必创造一个机器告诉我们做什么或如何思考的世界,尽管我们很可能最终会成为一个世界,”她说。在整本书中,她多次问道:“我们有失去人性的危险吗?” 现在,我们还没到排斥人类的地步。我们在这个世界上的作用并没有被边缘化,而且不会持续很长时间。人和机器可以结合各自的长处和短处一起工作。机器是有缺陷的,并且会犯与我们相同的错误。我们应该关注我们交出了多少信息,放弃了多少能力。毕竟现在算法已经是人类与生俱来的一部分,短时间内不会消失。
