当今社会,数字产业化、产业数字化不断推动数字世界与物理世界深度融合,人类生活和生产方式日益被重塑.作为这场经济社会变革的核心驱动力,人工智能算法和数据将是未来几年的话题制造者。毫无疑问,将数据与人工智能算法相结合,嵌入到合适的应用场景中,将带来显着的经济效益和社会效益。但我们也必须关注人工智能算法可能带来的公平、安全、隐私、透明、责任、就业等方面的问题。算法系统的输出可能对特定个人或群体造成歧视、不公平、排斥等。例如,人脸识别算法被指责在识别有色人种方面不够准确,广告算法和招聘算法被指责排斥女性员工。算法分发可能助长虚假信息的传播和泛滥,也可能限制用户对信息的自由选择,从而造成“信息茧”效应。同时,算法也可能被滥用或误用,对个人权利、公共利益和国家安全造成威胁,例如过度收集和分析人脸信息、大数据杀戮、深度伪造等。在这些背景下,人工智能的发展和应用迫切需要伦理价值观来提供引导和约束,这已成为国内外人工智能领域的基本共识。三个阶段2016年以来,伴随着人工智能技术的快速发展和应用,人工智能伦理大致经历了三个发展阶段,急需走向“实践”阶段。第一阶段始于2016年,可称为原理大爆炸阶段。这一阶段的核心是各行各业相继提出或制定伦理原则。从人工智能需要遵循一定的伦理原则出发,从国家、政府机构、国际组织到科技公司、行业组织、学术团体,各行各业都提出或制定了人工智能伦理原则。微软、谷歌、IBM、腾讯等国内外主流科技公司也积极响应,相继提出了自己的人工智能伦理原则。据不完全统计,相关AI原理文档有100多篇。总之,现阶段各行各业都在积极倡导人工智能伦理原则,但缺乏必要的共识和具体实践。第二阶段从2018年开始,可以称为共识寻求阶段。不同的国家和不同的组织提出了众多的人工智能原则和伦理框架。这些原则和框架并不相同,甚至在一定程度上存在差异和冲突。但人工智能和数字经济是全球化的,所以人们希望达成和制定全球公认的人工智能原则。OECD和G20的AI原则就是这个阶段的产物。第三阶段从2019年开始,可以称之为AI伦理实践阶段。在这个阶段,业界开始思考如何将AI原则落地和落实,探索能够将AI原则转化为实践的机制、实践和工具。目前,谷歌、微软、IBM等科技公司都在积极推动AI伦理的落地,让AI原则具有可操作性和可操作性,真正将AI研发流程与商业应用融合嵌入。总之,人工智能伦理实践应该成为当前和未来人工智能伦理工作的核心方向,因为要真正落实人工智能伦理,仅仅倡导人工智能伦理原则是不够的。下一阶段,我们需要重点探索“抽象AI原理的翻译”。“为”或“转化”为具体的实践治理路径。这五个路径,从原则到实践,是人工智能伦理领域的发展方向。目前,我国提出了人工智能伦理相关的原则和框架,如《新一代人工智能治理原则——发展负责任的人工智能》.一些科技公司也推出了类似的举措,在此基础上,有必要进一步探索人工智能伦理的实施方案,更多地依托伦理治理的相关实践,推动负责任、安全、可控的人工智能技术的发展和应用。可靠的人工智能。结合国内外的相关探索和研究,人工智能伦理治理主要有以下五个实践路径。一是伦理委员会。如果人工智能是未来智能社会的基石,那么可以说伦理是基石稳定的必要保障。因此,考虑到不同人工智能系统的不同影响,以及立法滞后等因素,在法律不完善的情况下,科技公司除了遵守法律的最低要求外,还需要积极履行道德责任。伦理委员会是科技公司履行人工智能伦理责任的最基本机制。成立伦理委员会,对AI相关业务和应用进行必要的伦理审查,成为科技行业的“必须”,如微软的AETHER委员会、谷歌的AI原则审查组、IBM的AI伦理委员会等。伦理委员会的主要职责是制定与人工智能伦理相关的内部标准和程序,并据此对人工智能相关业务进行伦理审查,以识别、防范和消除人工智能在安全、公平和隐私方面的风险。人工智能相关应用。在具体运作上,伦理委员会需要多方参与,即技术、法律、伦理等不同专业领域人员的协作与配合;主体的作用。此外,伦理委员会的反应速度快于政府立法,能够及时跟进技术创新和应用的快速发展。二是伦理实践框架。除了对人工智能业务进行伦理审查外,国外科技公司也在实施人工智能伦理相关的实践框架,以解决人工智能带来的歧视、不透明、无法解释和隐私等问题。例如,在算法透明度方面,谷歌推出了人工智能“模型卡”机制,IBM推出了“AI事实清单”机制。这些机制类似于产品说明和食品营养成分表。对相关模型细节、用途、影响因素、指标、训练数据、评估数据、伦理考量、警告和建议等进行解释,让人们更好地理解和认可人工智能模型。再比如,在隐私保护方面,联邦学习框架不仅可以促进数据利用,还可以很好地保护个人隐私。简而言之,联邦学习就是在机器学习的过程中,每一方都可以借助其他方的数据进行联合建模,但不需要共享各自的数据资源。借助联邦学习,可以解决数据不完整、不足等问题,同时保护个人隐私和数据安全。联邦学习在车险定价、信用风控、销售预测、视觉安全、辅助诊断、隐私保护广告、自动驾驶等方面具有广阔的应用前景。此外,AI伦理清单、AI公平清单等机制越来越受到科技公司的重视,将在确保AI符合伦理要求方面发挥越来越重要的作用。第三个是道德工具。道德工具侧重于从技术上寻找解决透明度、可解释性、公平性、安全性和隐私保护等问题的技术解决方案。此外,还包括用于deepfakes的识别工具,包括人脸伪造。从伦理工具的开源开发到商业服务,大型科技公司和人工智能伦理初创公司正在弥补人工智能领域的缺失环节,为人工智能伦理的实施提供新思路。目前,谷歌、微软、IBM以及一些人工智能伦理初创公司正在积极开发多样化的人工智能伦理工具,并将其集成到云服务中,提供人工智能伦理服务(ethicasaservice,简称EaaS),为客户和行业赋能.EaaS有望成为未来云服务和云AI的标配。四是标准认证。就像现在的隐私保护一样,人工智能伦理也可以通过标准认证来推动,符合人工智能伦理标准的人工智能产品和服务可以申请相应的认证。目前,IEEE、ISO等国际标准化组织正在积极组织制定相关标准,并尝试开展认证项目。未来,我国也需要在这方面积极投入,抢占标准制高点,通过标准认证,鼓励和推动可信、负责任的人工智能的开发和应用。五是道德修养。技术研发人员处于AI业务的第一线,是技术第一责任人。他们需要培养伦理意识,帮助他们在AI商业实践中积极践行伦理要求,将伦理要求嵌入到产品研发、设计和运营的全过程。因此,政府和企业要加强对技术人员的伦理培训,高校要加强人工智能伦理相关教育和培训体系建设。人工智能治理三管齐下,伦理治理、法律治理、技术治理各有施展空间,不容忽视。但就目前而言,人工智能治理需要更多地依赖伦理治理。考虑到人工智能算法的复杂性和不断迭代,在不宜仓促出台强制性立法的情况下,伦理治理无疑是应对人工智能算法应用所带来问题的最合适、最有效的方式。人工智能伦理很重要,是确保实现负责任、安全、可信的人工智能的重要路径。但也不能片面强调伦理和立法规范,以免影响人工智能技术的创新应用和经济社会效益的最大化。例如,过分强调个人信息和隐私保护可能导致人工智能应用无法获得足够的可用数据,从而阻碍人工智能应用及其对个人和社会的价值;过分强调算法的透明性可能会降低算法的准确性或效率,从而阻碍大规模应用;片面强调在所有场景下都需要人的最终决策和控制,可能无法充分利用人工智能解决现有决策环节中与人类决策者相关的偏见、歧视等问题。而且,很多高风险的人工智能应用往往也是高价值的人工智能应用,需要在权衡不同利益追求的基础上,平衡伦理与发展,实现负责任的技术创新与应用。
