审视全球十大AI事件,AI治理如何趋利避害?解决这些问题,更需要与学术界和企业界合作,在技术研发、治理方式、伦理建设等方面进行完善。人工智能技术高速发展的同时,也引发了音视频造假、监控隐私、算法偏差、创意版权、就业等多方面的社会问题。对此,雷锋网今日解读了由旷视科技AI治理研究院评出的“2019年全球AI治理十大事件”。与聚光灯下炙手可热的AI落地应用相比,这十大案例折射出AI落地不光彩的一面。如果说解决人工智能治理的核心命题在于新时代的伦理和法律规范,那么2020年将是检验其可行性的关键一年。为什么人工智能会让我们产生危机感?特点一:新事物挑战传统伦理和法律写新闻的软件,比如提供“今天辛辛那提一辆装有受控核材料的火车车厢被盗,下落不明”,该软件可以写7段假新闻.考虑到本软件使用的无监督语言模型GPT-2被滥用可能造成的危害,OpenAI只公开了部分代码和研究论文供研究人员进行实验。2019年12月,当用户借用智能音箱咨询心脏问题时,语音助手给出的答案吓坏了用户,“心跳是人体中最糟糕的过程,人类的生命正在加速自然资源的枯竭...请确保刀能刺入你的心脏。对此,事故方回应称,语音助手可能从维基百科下载了恶意文本,任何人都可以编辑。警示意义:以上两种情况,AI已经具备了一定的文本学习和生成文本的能力。如果收集的数据首先被误解,输出将反映这一点。这极大地考验了研究者会给它灌输什么样的价值取向。然而,目前人工智能还无法实现基于理解的人类伦理学的自主学习。特点二:社会发展与人权平权的内在矛盾典型案例:性取向检测,未来职业淘汰描述:追溯到2017年,斯坦福大学的研究人员使用了美国交友网站上超过35000张男女头像图片进行训练,让机器学习识别人们的性取向。结果发现,机器识别的准确率远高于人类。同年,BBC发布了365个职业10年被淘汰的概率。其中电话推销员、打字员、会计位居前三,这些职位的一个共同特点是都属于大量的重复性劳动。准备掌握。警示意义:本来,性取向话题与机器替代人力的焦虑,在任何国家和社会都是长期存在的矛盾。然而,人工智能就像一个不懂事的孩子,直截了当地将问题放大,引发社会广泛争议。社会要发展,必然要提高生产力,而人工智能似乎是目前最具变革性的技术。在这样的背景下,前AI时代社会存在的那些问题能否随着社会的发展得到妥善解决?特点三:“裸奔”时代,公民的安全和隐私问题。典型案例:AI换脸,杭州首例人脸识别,监控头环事件:2019年8月,一款AI换脸软件在社交媒体上刷屏。用户只需要一张正面照片就可以用自己的脸替换视频中的人。由于用户的疯狂涌入,软件运营商的服务器一夜之间烧掉了超过200万元的运营费用。2019年10月,浙江工业大学教授起诉杭州野生动物世界非法采集人脸识别信息。他认为,此类信息属于个人敏感信息,一旦泄露、非法提供或滥用,极易危及包括原告在内的消费者人身和财产安全。2019年11月,一段浙江某小学佩戴名为“脑机接口”头带的视频播出。这些头带声称能够记录孩子们在课堂上的专注程度,生成数据和分数并发送给老师和家长。随后,该行为被当地教育部门制止。警示意义:对于目前广泛使用的人脸识别等涉及公民隐私的身份认证技术,在为社会提供便利的同时,您是否考虑过公民是否愿意交出人脸数据,即使是在知情的情况下?人脸数据具有不可逆的唯一性,一旦将用户的家庭住址、消费行为等数据打通,个人隐私就等同于“裸奔”。与目前国外出台的保护和禁止规定相比,我国对隐私的保护明显不足。特点四:事故后权责认定不清典型案例:自动驾驶事故频发描述:2018年3月,亚利桑那州坦佩市,一名行人在路上被测试的优步自动驾驶汽车撞死。行车记录仪显示,事故发生时,该车安全员一直在查看车辆中控底部,被撞女子突然从漆黑的路面出现。尽管优步随后停止了自动驾驶车辆测试,但事故责任方如何判断更引人关注。警示意义:近年来,自动驾驶汽车引发了多起道路安全事故,甚至出现了多起死亡案例。如何消除安全隐患,提升安全系数,是所有自动驾驶企业需要解决的问题。自动驾驶的最终目标是消除事故伤亡,但以生命为代价“换取”技术进步的问题,值得立法者和管理者长期思考。对于人工智能治理,我们不能坐视不理。如上述案例所述,在科学的发展过程中,我们曾经关心过技术的工作原理,试图从技术的角度来解释和改进安全问题的出现。但实践证明,目前的AI技术并非处处安全。这方面与技术的局限性有关,也与实际的应用对象、场景和环境密切相关。就在最近,欧洲专利局拒绝了人工智能发明的专利申请,“理由是它们不符合欧洲专利联盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。”国内尝试用AI来缓解版权和专利问题引发的争议,起到了一定的借鉴作用。由此可见,构建完善的法律体系或许是人工智能治理最迫切的手段。同时,要求各类科学组织和社会机构进一步约束道德伦理。值得一提的是,我们已经看到国内政府机构、学术研究机构、企业代表积极探索人工智能发展的治理问题。2019年5月,北京致远人工智能研究院与北京大学、清华大学等单位联合发布《人工智能北京共识》,成立“人工智能伦理与安全研究中心”,提出所有参与者都应遵循并造福共享社区人类的未来15条原则。同月,上海国家新一代人工智能创新发展试验区揭牌,明确了建立健全政策法规、伦理规范、治理体系等相关任务。6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理八项原则:和谐友好、公平正义、包容共享、尊重隐私、安全可控、责任共担、开放协作和敏捷治理。在8月的世界人工智能大会上,青年科学代表宣布《上海宣言》,腾讯董事长兼CEO马化腾在演讲中表示,人工智能治理的紧迫性越来越高,应该以“科技向善”为引领全面治理人工智能,确保人工智能“可知”、“可控”、“可用”、“可靠”。外交部原副部长、清华大学国际战略与安全研究中心主任傅莹表示,传统立法需要等待,需要不断的社会实践积累共识。面对人工智能如此快速的发展,法律的制定需要新的思考。12月,国家互联网信息办公室、文化和旅游部、国家广播电视总局发布《网络音视频信息服务管理规定》,首次将AI造假音视频纳入规定,并将于2020年1月1日。事实上,在政府完善法律政策、学术机构建立伦理道德约束的同时,我们也看到了技术禁绝实践中“一刀切”的问题。例如,去年3月在加利福尼亚州通过的一项法案禁止在警察执法记录仪上安装面部识别软件。虽然人脸识别软件在更容易抓捕罪犯方面具有潜在优势,但很明显,政府正致力于保护公民的隐私和可能存在的算法偏差。人工智能技术是应该被禁止以解决风险问题,还是应该被积极采用以改善社会运行和确保效率?这可能不是对错的问题。但是作为人工智能从业者,一定要有红线感。中科院自动化研究所研究员曾毅指出,事实上,很多企业对存在的风险视而不见。人工智能的健康发展必须有治理驱动和发展驱动,必须确保其朝着正确的方向发展。旷视在推动人工智能治理方面做了哪些努力?早在2019年7月,旷视科技就意识到了这个问题,并从公司自身角度公布了《人工智能应用准则》管理标准。《准则》从合法性、人工监督、技术可靠性和安全性、公平性和多样性、责任追溯、数据隐私保护等六个维度,明确规范人工智能的正确有序发展;同时,给出相应的干预措施或引导,确保人工智能在可控范围内持续发展,呼吁社会各界关注用好技术,倡导行业建立生态可持续发展早。同时,旷视还组织成立了人工智能伦理委员会,旨在与各方积极探讨全球人工智能伦理相关的共同问题,促进与社会各界的交流,促进人工智能的健康发展,确保创新技术造福社会。以产生更积极的影响。组织和原则的建立只是后续人工智能治理的良好开端。据旷视科技介绍,公司在人工智能伦理委员会下设立了“旷视人工智能治理研究院”。在旷视《人工智能应用准则》的指导下,研究院将深入探索可信赖人工智能系统的开发与应用。进入2020年,旷视科技还将与更多同行成立联合委员会,期待加速AI应用指南落地落地。综上所述,从今天的角度来看,这十大热门事件并不是孤例。如果不加以正确引导,将对社会产生很大的负面影响。人工智能系统收集或上传隐私时,隐私定义规则是什么?自动驾驶汽车遭遇危机,责任人是司机、车辆还是政府监管不当?由于人类通过生物学原理获得教育和学习,与目前单纯依靠统计推理训练的机器学习系统有着根本的区别,我们应该如何面对机器给出的建议和结论?或许AI在很长一段时间内都将不同于人类社会的伦理道德但可以预见的是,2020年,随着5G在中国的全面商用,5G或将带动AI算法、边缘计算等技术的蓬勃发展,进一步极大赋能智能制造、智能家居等更广泛的生产生活领域。它的巨大潜力和价值证明了接受挑战是合理的。在边界问题讨论不清的时候,要耐心地教育它、引导它、规范它,促使它成为顺应人类社会发展的智能技术。本文转载自雷锋网。如需转载,请在雷锋网官网申请授权。
