当前位置: 首页 > 科技观察

当年轻人开始在赛博朋克电影中谈论人工智能伦理

时间:2023-03-18 13:02:51 科技观察

时,他们经常会看到这样的想法:社会已经被财阀集团控制,人工智能被用作统治的工具,每个人的行为都必须遵循机器的规则逻辑,服从算法的规则。于是生活在社会底层的主人公找到了漏洞,试图摆脱被人摆布的命运。或许在大多数认知中,类似的反乌托邦世界离我们还很遥远。然而,当人工智能技术从象牙塔进入现实生活后,与人工智能伦理相关的问题逐渐成为学术界争论的焦点,甚至一些年轻人也开始思考算法的伦理和风险。比如在B站知名视频博主“在下小苏”出品的一期中,就讨论了DeepFake、人机恋爱等话题。利用DeepFake等黑科技进行恶搞甚至作恶,我们应该对人工智能持什么样的态度?一旦“技术中立”被越来越多的人诟病,新时代我们又该如何处理人与机器的关系?也许AI伦理的概念有些宏观,但它涉及到每一个与人息息相关的事物。无处不在的算法判别人工智能离我们并不遥远。当你打开新闻应用时,算法会根据你的喜好自动推荐新闻;当你在电商平台购物时,算法会根据你的习惯推荐相应的商品;应聘时,首先处理简历和筛选,也可能是算法;当你去医院看病时,医生可能会用一个算法模型来判断患病的可能性……算法正在以前所未有的速度渗透到我们的生活中。在支持者看来,算法可以减少一些决策的人为干预,从而提高决策的效率和准确性。从批判的角度看,算法是否存在人为偏见,人的命运是否会被算法左右?不幸的是,算法歧视现象往往是算法应用的衍生物。亚马逊在2014年开发了一套“算法筛选系统”,帮助HR在招聘时筛选简历。开发团队创建了500个算法模型,教算法识别简历中出现过的50000个术语,然后为候选人的不同能力分配权重。最后,开发团队发现该算法对男性申请人有明显的偏好。如果认可简历中有女足俱乐部、女子学校等,会给简历打相对低的分数。这一算法模型最终被路透社曝光,亚马逊也适时停止了该算法的使用。耐人寻味的是:“没有价值”的算法为何开始出现偏差?无独有偶,就在2018年IG夺冠的喜讯让网络沸腾的时候,战队老板王思聪第一时间在微博上进行了抽奖,结果出乎意料:中奖名单中有112名女中奖者和1名男中奖者,女性获奖者比例是男性的112倍,男女参与用户比例为1:1.2。因此,不少网友质疑抽奖算法的公平性。甚至有网友主动测试抽奖算法,将中奖人数设置为大于参与人数。仍有大量用户无法中奖。原因是这些用户被算法视为“机器人”,这意味着他们没有机会在任何抽奖活动中获胜。在算法的黑匣子面前,我们看到的大部分是结果,却无法理解决策的过程。类似的案例可能比比皆是,但很少有人关注。最直接的教训是互联网。硅谷的自由法催生了互联网,以至于一些原罪被人们选择性地忽视,终于在20多年后出现了对互联网的一轮批判。正如纽约时报在一篇文章《减少互联网是唯一的答案》中将互联网归咎于具有极权意识形态的技术一样,互联网公司被描述为一群驱动技术的“邪恶之王”。对互联网的批判很可能不会让人减少对互联网的使用,但它给出了一个思路:如果算法的应用和算法歧视的现象,互联网为什么会从一个人人敬仰的行业变成过街老鼠?不限制,以后还会有。将来有一天会掀起多大的波浪?根本原因是人性的偏见。当然,算法的“偏差”也不缺乏合理的解释。一种说法是将机器学习结果中的偏差归因于数据集偏差,而不是算法偏差的“技术中立性”。其中比较知名的支持者之一就是被誉为“卷积神经网络之父”的杨立坤。比较普遍的说法是:如果有人用菜刀割伤了别人,是不是菜刀厂家的错,甚至是“菜刀本身”的错?另一种解释是数据量太小。当算法学习到的数据量越大,算法的误差就会越小,结果越趋于准确。即使可以开发筛选系统将无偏见的数据输入算法,也无法实现绝对的公平。毕竟,“主流”总是有更多的数据,算法最终会偏向多数,造成所谓的对“非主流”的歧视。这两种说法其实说的是同一个道理:计算机领域有一个著名的缩写是GIGO,意思是Garbagein,GarbageOut。翻译成中文就是说,如果输入是垃圾数据,那么输出也将是垃圾结果。算法就像现实世界的镜子,可以反映出人们对社会有意识或无意识的偏见。如果整个社会都对某个话题有偏见,那么算法的输出自然会带有歧视性。德国哲学家雅斯贝斯曾在《原子弹与人类的未来》中写道:“技术本身既无善也无恶,但它既可用于善也可用于恶。它本身不包含任何观念:既不完美的概念也不包含毁灭的恶的概念;它们都有其他来源——人类本身。”换言之,算法歧视的根源其实是人性的偏见,“算法中立”观点的本质归根结底是对人性偏见的掩盖,而这恰恰是人工智能的可贵之处。可怕的。任何技术的出现,都有“工具性”和“目的性”两个维度,选择权其实是留给人类的。然而,人性往往经不起考验,无法想象,将“工具”毫无节制地交给人,会造出多大的恶来。就像视频中“小苏”提到的DeepFake算法一样,在2017年一经亮相就引起了巨大的轰动。一位名叫Deepfakes的用户将神奇女侠演员盖尔·加朵换脸成成人电影女主角,曾引起巨大争议以假乱真的效果。由于DeepFake算法的出现,普通人经过一段时间的学习,就可以掌握只有专业电影制作机构才能完成的任务,就像一头出笼的猛兽:加蓬总统阿里·邦戈用DeepFake合成新年致辞,没想到却引发了军中兵变;有人利用DeepFake将马来西亚经济部长与男性的视频合成,给政府造成了很大的麻烦;在世界无数隐秘的角落,有人利用DeepFake进行诈骗勒索……在这个“算法无处不在,我们该如何自处?把野兽关在铁笼子里作为新时代的“火种”,我们可能无法拒绝人工智能。因为人工智能的应用,质检线上的工作人员不再需要在强光下盯着产品,用眼睛寻找缺陷;因为人工智能的应用,基层医生也可以根据病人的检查结果做出准确的判断;因为随着人工智能的应用,一群不会输入法的老年人也可以用语音进入互联网世界了……但一切美好的前提都是把野兽关在铁笼子里第一的。或许我们在评论“快博案”时可以借用《人民日报》的观点:技术不仅必然承载价值,更具有伦理上“应该”承载的“善”价值:维护法律的稳定和习俗,远离破坏和颠覆。一旦违背这个原则,任何技术都会被烙上耻辱的烙印。言下之意,科技不应该是脱离现实的乌托邦。技术的兴起离不开必要的监管。可以说,如果在法律法规上划定技术应用的边界,在技术中立上套上伦理枷锁,人工智能技术的发展是稳定的。致远前提所在。与此同时,越来越多的学者也在探讨法典与法律的关系,担心算法是否会动摇人类社会现有法律的基本框架,并提出了“算法监管”的概念,即利用算法决策的方法。-makingasameans监管治理体系可以理解为一种促进算法治理的工具。除了这些防御机制之外,或许还有另一种可能:对算法开发者进行适当的“AI伦理”教育,确定一些算法的“基本原则”,就像“机器人永远不能伤害人类”的铁律一样,从源头上防止算法滥用。以“在下小速”为代表的视频博主可以算是一个切入点。虽然《小苏之下》的AI伦理节目不排除与旷视科技合作的嫌疑,但如果一家人工智能公司愿意进入年轻人关注的交互领域,将向外界传达一个语境和年轻人熟悉的表达方式。人工智能伦理的概念及其自身的人工智能伦理实践并不是有效的启蒙途径。目前,包括中国社会科学院、清华大学、复旦大学、上海交通大学等在内的科研机构和高校已经开始了人工智能伦理方面的研究。世界人工智能大会、北京致远大会等顶级行业峰会也将人工智能伦理作为讨论的话题。对人工智能普及起到引领作用的企业,也应肩负起普及人工智能伦理、给年轻人上人工智能第一课的义务。早在一百多年前,美国最高法院大法官路易斯·布兰代斯就曾说过:“阳光是最好的抗病毒药。“同样的道理也适用于人工智能教育,在教年轻人用人工智能改变世界的同时,也要让他们明白善恶、底线和界限。继上面提到的例子之后,菜刀被设计成它的用途已经被标注,人工智能也是如此,它应该被控制在一个可理解的天花板下,而不是被留在一个失控的黑盒子里。AI伦理就是天花板。不可否认的是最终,伴随着人工智能的大规模产业应用,一些前所未有的人机矛盾逐渐浮出水面,以至于寻找一种可预见的、受约束的、仁慈的人工智能治理机制成为人工智能的首要命题。智能时代。或许不必太郁闷。从钻木取火的原始时代到计算机时代,人类一直走在学习、使用和掌握技术的道路上。一次次做出正确的选择,才找到了正确的控火之道。学习人工智能伦理的“人工智能第一课”,正是规避人工智能邪恶面、理性驾驭人工智能的正确开端。当Z世代的年轻人在讨论AI伦理时,构建一套完善的AI治理规则不再遥不可及。