当前人工智能的发展主要得益于以深度学习为代表的机器学习技术,它可以让计算机从大量数据中自主学习和进化,从而使得更高效、更准确以及更便宜的预测和决策。正因为如此,人工智能作为一种新的通用技术,被认为对经济和社会具有变革性的影响。它已被各国上升到国家战略和科技主权的高度,成为全球科技竞争日益激烈的新焦点。在应用层面,人工智能已经渗透到各行各业。算法帮助我们过滤垃圾信息,为我们推荐可能喜欢的歌曲,为我们翻译不同的语言,为我们开车。新冠肺炎疫情发生以来,人工智能在辅助医疗诊断、新药研发等领域崭露头角,无人物流配送、无人车辆等新模式助力无接触服务发展。总而言之,人工智能具有成为善的力量的巨大潜力,不仅可以带来经济增长、改善社会福祉,还可以促进可持续发展。但与此同时,人工智能及其应用的负面影响和伦理问题日益凸显,呼吁人们更加关注技术及其产业化之外的伦理视角。例如,人工智能模型训练及其应用离不开海量数据的支持,这可能导致违反法律法规或过度收集和使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在部分场景的应用也引发了国内外对该技术侵犯个人隐私的争议。人工智能技术也可能被不法分子滥用,如从事网络犯罪、制作和传播虚假新闻、合成混淆视听的虚假图像等。上海市静安区市北高新技术企业人工智能体验馆。新华社电随着算法歧视的不断发酵,人工智能参与决策的公平性也备受关注。研究发现,许多商用人脸识别系统存在种族、性别等偏见。如果这种技术用在自动驾驶汽车上,可能会让黑人等皮肤黝黑的人更容易被自动驾驶汽车撞到。人工智能在招聘、广告、信贷、保险、医疗、教育、司法审判、刑事量刑、公共服务等诸多方面的应用也伴随着公平性争议。此外,人工智能的知识产权保护问题也日益凸显。目前,人工智能可以自主创作诗歌、小说、图片、视频等,知识产权制度需要尽快响应对人工智能创作的保护。自动驾驶汽车、AI医疗产品等人工智能应用一旦发生事故,也面临着谁来承担责任的问题。最后,人工智能的应用可能会替代一些体力劳动和重复性劳动,这会对劳动者的就业产生一定的影响。2020年被认为是人工智能监管元年,美国和欧洲采取的监管路径大相径庭。欧盟提出的“重监管”模式《人工智能白皮书》更多依赖事前监管,考虑为技术开发和应用设置严格的条件;美国提出的“轻监管”模式更多依赖标准、指南等灵活手段。考虑安全港、人工智能应用“监管沙箱”等在全球科技竞争日益激烈、数字经济成为国家核心竞争力的背景下,考虑我国科技发展的实际产业界,我国需要对人工智能进行创新治理,依托敏捷监管、伦理治理、科技治理等多种手段,共同确保人工智能得到积极应用和向善发展。首先,监管既要对人工智能应用进行分类,以问题和风险防范为导向,又要具有敏捷性和适应性。人工智能技术的一个核心特征是快速发展和迭代,强制性法律的制定必然跟不上技术发展的步伐。因此,国外大多采用指南、伦理框架等“软法”。此外,自动驾驶汽车、智慧医疗等人工智能应用的开发和落地还面临诸多监管和政策障碍。有必要考虑修改具有障碍性的法律法规,同时通过“数字沙箱”、“安全港”和“试点计划”进行推广。测试和应用落地。二是坚持伦理治理,将伦理原则转化为伦理实践。目前,国内外很多科技公司都出台了人工智能的伦理原则,并且也在通过伦理审查委员会和伦理嵌入的方式来贯彻其伦理原则。这些行业伦理治理措施在国内外获得了较大的共识,更适应人工智能技术的发展。三是用技术手段防止滥用人工智能。例如,深度合成作为一种人工智能应用,在影视制作、教育、医疗、娱乐等领域具有巨大的积极应用价值,但也可能被不法分子滥用,制造和传播虚假图像用于欺诈活动。对此,业界一直在积极开发和部署内容识别和溯源技术,以打击深度合成的滥用。面对越来越复杂、迭代速度越来越快的人工智能应用,技术治理将发挥越来越重要的作用。
