京东探索研究院院长陶大成曾做过一个实验:在道路交通标志牌上张贴小广告,无人驾驶系统误判。解读也限制了人工智能更广泛的应用和赋能。”这是人工智能“双面”的一个方面:一方面,利用机器学习等人工智能技术可以实现数据识别和保护等功能、数据安全溯源等,提高数据安全保障能力;但另一方面,人工智能智能化也会带来新的安全问题,如数据过度采集,甚至算法歧视、“数据中毒”等。如何让人工智能更可信?近日在上海召开的世界人工智能大会上,众多专家学者关注了这一问题,指出人工智能在数据和网络安全方面不容忽视的一面。新的安全问题不能忽视被忽视。虽然我国已经成为世界人工智能领域的领先者之一因此,它在人工智能的发展和安全方面仍然面临着严峻的挑战。全国政协社会与法制委员会副主任陈志敏指出,过度收集和非法使用数字信息可能侵犯公民权利和隐私;算法的偏好可能会加剧社会偏见或歧视,威胁公平正义。如果信息被窃取或出售,可能会导致更严重的刑事犯罪。他举了一组数据:我国电信诈骗案件目前正处于高发期,有的地方已经占全部刑事案件的一半以上,超过了传统的盗窃案件。“机器深度学习很难理解人类的道德。例如,无人驾驶汽车紧急避让等智能决策可能会威胁到特定人群的生命安全。”他说。算力、算法、数据是人工智能的三要素,人工智能也引发了新的数据安全问题。国家工业信息安全发展研究中心副主任何小龙指出,人工智能算法对数据的依赖性强,可能带来“数据中毒”等新型数据安全挑战。所谓数据中毒,是指在训练数据中加入虚假数据或恶意样本,破坏数据的完整性,导致算法模型的结果出现错误。“例如,微软的聊天机器人Tay因发布歧视性和攻击性言论而被关闭。主要原因是对话数据集被恶意添加了不适当的数据。”何小龙说道。二是样本偏差问题。基于基础数据集的多样性和代表性不足,人工智能算法会隐藏特定的社会价值倾向或偏见,输出不公平的结果。越来越多的开源框架也带来了新的风险,“例如,在某项目对主流开源框架的安全测试中,我们在短时间内发现了24个安全问题,其中严重危险漏洞2个,高危8个。风险漏洞。”何小龙说道。“事实上,人工智能的应用带来了很多风险,包括自身的计算能力和算法带来的脆弱性,以及人工智能在应用中的鲁棒性(系统在异常和危险情况下的生存能力),可解释性和公平性。当这些新技术与原有业务结合时,可能会给原有业务或系统带来巨大的系统性风险。上海市委网信办总工程师杨海??军表示,人工智能如何“定责”“当人类将思考、控制乃至决策外包给算法时,人工智能首先要做的是如何来证明它是可信的。”中国信息通信研究院云计算与大数据研究所所长何宝红表示,人工智能可信已经成为全球共识。那么,什么样的人工智能是可信的呢?不同的组织有不同的看法。理解不同,IEEE(电气和电子工程师协会)认为,“透明”是为了以正确的方式使用技术,以人为本是为了明确责任,造福于人类;欧盟提出鲁棒性、安全性、人的监督和干预、明确责任等等。2017年底,何继峰院士提出“可信人工智能”概念在象山科学大会上首次在国内提出。目前,世界各国都在密切关注可信人工智能。据陶大成介绍,归纳为四个主要表现,这个可信度是从四个方面来衡量的。一是稳定性,即人工智能系统抵抗恶意攻击或环境噪声并做出正确决策的能力;另一个是可靠性。可解释性是指人工智能系统在做决策的过程中,需要用人类能够理解的方式来解释如何做这些事情;三是隐私保护,即人工智能系统不会向外界泄露个人或群体隐私信息;第四是公平,即系统要公平公正,正确对待所有用户,无论是大众用户还是小众用户,男性还是女性。至于自动驾驶事故这个复杂的事件,也可以按照这个逻辑不断拆解:当系统出现问题的时候,你需要知道为什么,谁来承担责任,如何承担等等,都需要有明确的指标,测量才能做到。相信人工智能。上海交通大学约翰·霍普克罗夫特计算机科学中心副教授张全石表示,如果自动驾驶汽车撞到人,首先要知道系统的真正原因,然后才能确定责任。可能20%的原因是为了避开另外两个人,10%的原因可能涉及到时间检测算法模块的错误。明确内部机制后,由法官进行判断。蚂蚁集团副总裁、首席人工智能科学家齐元表示,人工智能的公平性体现在很多地方。比如一个很重要的社会问题是和包容有关的,就是技术的包容和服务的平等。他举了一个例子:验证码本来是为了提高安全性,但它本身会阻止视障人士使用,所以支付宝开发了空中手势;利用人工智能技术对旧物进行分类回收,可以识别出哪种旧衣服哪种回收率更高,让用户有更多精力用蚂蚁种树,蚂蚁集团还承诺到2030年实现净零排放。所有国家积极采取措施加强可信人工智能技术研究,应对人工智能安全挑战。在我国,从顶层设计来看,新出台的《数据安全法》将于9月1日正式实施,为规范数据处理活动、保障数据安全提供了法律依据。此外,有关部门还针对人工智能的重要领域提出了详细的管理规定和管理框架,提出了针对性的数据管理要求。比如今年3月,中国人民银行发布了《人工智能算法金融应用评价规范》;2021年4月,工信部《智能网联汽车生产企业及产品准入管理指南(试行)》对各领域人工智能安全保障提出相关要求。目前,可信人工智能技术已经在反欺诈、反洗钱、反赌博、企业联合风控、数据隐私保护等多个风控场景落地。何小龙建议,推动可信人工智能前沿算法研究发展,围绕人工智能在不同场景下的应用,制定相关行业规范和技术标准。围绕数据安全,涌现出微众银行、深圳星云星云、洞察科技等一批隐私计算服务公司。“隐私计算等技术赋能可信人工智能,可以促进数据价值的可信流动。”诺维科技董事长兼CTO王爽表示。可信人工智能并非一成不变。陶大成提到,就像手机的出现一样,一开始大家都觉得很方便,后来发现手机占用了我们太多的时间。同样,受信任的技术也会随着时间和空间的变化而变化。
