【环球网科技记者王楠】说到AI,你最先想到的是什么?是九段天才棋手柯洁对战AlphaGo?是自动驾驶吗?类似的广告?还是家长认不出来的“伪装神器”?从1950年的图灵问题到今天工业的蓬勃发展,人工智能技术早已渗透到人们生活的方方面面。然而,在高速发展的背后,“黑盒模式”引发的技术不可控、数据安全、隐私泄露等问题时有发生。看来,人们对人工智能技术的“无所不能”,已经从最初的全面肯定,变成了冷静下来后的迷茫、担忧和思考。面对科技飞速发展带来的信任危机,人们该如何应对?首先,我们要搞清楚什么是可信AI?“可信AI实际上是通过底层技术框架,解决人工智能应用过程中可能存在的问题。多类问题,从而建立一个可信的人工智能生态。”中国信息通信研究院华东分院人工智能与大数据处处长陈俊彦在12月14日举行的“谈AI”科技行业沙龙上表示。事实上,近年来,面对识别已成为黑市盯上的对象,围绕用户个人隐私数据的各种安全问题频频被报道。公众对隐私保护、数据安全等问题的关注度也越来越高。“如今信息来源众多,短时间内无法追根溯源,如果在数据使用上出现监管漏洞,将直接导致个人隐私泄露,甚至直接造成经济损失。”陈俊彦进一步分析了当前人工智能技术存在的信任危机。同时,AI信任危机也可能引发严重的人身安全问题。“由于人工智能技术是基于黑盒模型的,在一些关键领域,比如医疗诊断、自动驾驶等危及生命的行业,一旦出现信任危机,后果将非常可怕。”京东探索研究院算法科学家何凤翔分析称,这些危机将对行业发展和应用落地产生巨大影响。在此背景下,寻找人工智能时代隐私保护、政府监管和商业需求之间的平衡点,成为产学研各界亟待解决的问题。华控清教信息技术(北京)有限公司标准负责人、战略总监王云鹤认为,在推进可信人工智能建设的过程中,需要各方共同努力。“从法律的角度来看,目前有几部安全法和个人保护法为数据安全提供保护。这是可信人工智能的硬措施;下一步是提高行业标准化,这可以算是可信人工智能的软措施。”AI,两者缺一不可,相辅相成。”谈及近年来国际上可信人工智能相关政策或标准的实施情况,陈俊彦总结道:“目前,人工智能可信在国际上主要以指南和法案的形式进行规范,如如2018年的《可信人工智能伦理指南草案》、2019年的《可信赖人工智能道德准则》等。同时,在标准制定方面也有探索,比如构建人工智能管理框架,监督可信AI以提高信任度。例如,今年发布的《关于识别和管理人工智能歧视的标准提案》、《人工智能风险管理框架》等。”国外的可信AI虽然先行实现了法规和标准,但不够灵活,容易出现“一刀切”的问题。对此,何凤翔指出,随着AI可信的概念逐渐成为全球共识,在可信人工智能的技术研究和标准制定方面,京东研究院和信通院在白皮书中的思路是一致的,必须保证人工智能的公平性、可解释性、稳定性和隐私保护,在保证算法可信的同时,这也将成为未来人工智能产业健康发展的必由之路。”京东从基础理论出发,研究最前沿的问题。从这些理论问题和理论成果出发,设计新颖可靠的新型AI算法,然后尝试将这些AI算法应用到产品中,完成技术的最终落地。与会专家表示,无论是理论研究还是产业实践,可信赖的人工智能还有很长的路要走。“可信人工智能涉及的任务范围广,实际任务复杂,企业或机构很难靠一己之力带来质的创新和飞跃,因此产学研全链条合作是关键;在未来,行业需要构建一个成熟、开放的生态体系,汇聚大家的力量,才能带来更多技术、标准、实践的突破。”何凤翔说,总体来看,目前我国正在从政策、生态、法律、标准制定等方面全面发力可信人工智能建设,如《国家新一代人工智能标准体系建设指南》、《促进可信人工智能发展倡议》等文件的出台除了监管部门的全力配合,以信通院、京东为代表的重要机构以及龙头企业也在努力推进行业倡议、标准制定等工作,并有未来会有更积极的进展。
