未来十年,人工智能有一个领域需要改进:透明度。但人工智能将如何应对“信任危机”?人工智能更像是一个黑匣子。只有开发人员知道其中的算法是如何工作的,但对于其他人来说,AI的机制仍然晦涩难懂。公司希望用户相信人工智能的操作和判断是完整和准确的。但是,如果不了解这些操作的来源——它们背后的数据和逻辑是什么——就很难让我们相信人工智能。随着AI进入日常生活,这种缺乏透明度的情况越来越不可接受。当从雇佣决定到警察行动的一切都由人工智能决定时,人工智能如何才能准确和公平?随着这些趋势的继续,人工智能提出了关于偏见、公平和对机器的信任的难题。例如,亚马逊开发的一款人工智能招聘工具被发现对女性存在偏见。这一发现表明该技术远不如预期的客观。经济合作与发展组织(OECD)等机构团体已开始呼吁提高人工智能的透明度。欧盟通过的具有里程碑意义的《通用数据保护条例》(GDPR)让个人能够理解算法如何使用他们的数据。这些都是朝着正确方向迈出的步骤,清楚地表明了AI的发展方向。但让AI过于透明也存在风险。为什么AI在阴影中茁壮成长当AI变得更加透明时,它也更容易被操纵。把它想象成一个保险箱——一旦你揭示了锁机制是如何工作的,保险箱就会变得更容易破解。对于由不透明的AI造成的所有问题,很容易想象当AI的内部运作方式暴露时会出现同样多的问题。一旦坏人了解算法的工作原理,他们就有可能输入经过AI篡改的数据集或调整底层逻辑以实现他们想要的结果。想象一下,如果一位教授发布了对学生作业进行评分的算法的评分代码。然后学生可以使用评分系统。还需要考虑有关知识产权的问题。大多数算法都是由公司开发的,它们的工作原理被认为是公司机密——就像可口可乐的配方一样。这是一个敏感问题,要求AI开发人员将他们的源代码发布给可以提供监督的专门监管机构。无论最终达成何种解决方案,有一点是明确的:完全透明的AI可能会带来麻烦。为了使这项技术发挥作用,必须有一些未知的东西。未来的人工智能将谨慎行事未来的人工智能将在透明和保密之间取得谨慎的平衡。在公共、私营和消费者部门之间不可避免的一轮冲突之后,这将采取什么形式还有待观察。不过,我们还是可以看出一些端倪。提高AI透明度不仅仅是打开大门。了解算法实际在做什么需要严格的审查。ExplainableAI(XAI)利用可解释的机器学习算法,使AI操作员和用户能够理解AI系统为何做出他们所做的决定。许多公司已经在宣传其机器学习解决方案的可解释性。美国国防高级研究计划局(DARPA)投资了多个专注于技术环境适应性的研究项目。这项多年投资是该机构“AINext”活动的一部分。总体目标是开发可以自主运行的人工智能,而无需担心幕后机器如何做出决策。随着这些工具的激增,用户将期望他们的数据之旅的各个方面都能够得到解释。他们不会要求知道发生了什么,但他们也不会满足于昨天的黑匣子方法。随着人工智能越来越融入日常生活的方方面面,未来十年人工智能将在各个方面得到改善。但最大的变化将涉及我们自己的态度。随着AI获得做更多事情的能力——并告诉我们它是如何做到的——我们会很乐意赋予它新的职责,而不会冒失去控制的风险。
