人工智能无处不在,潜力无限,但俗话说,能力越大,责任越大。不幸的是,像Uber的“上帝”模型及其现在具有歧视性的算法之类的东西已经成为不该做的例子。在所有行业中,组织越来越多地转向人工智能来克服业务挑战并推动业务向前发展,但我们如何确保我们不会因为错误的原因成为下一个抢占这些头条新闻的人?障碍和具体陷阱在哪里?组织如何才能更好地找到正确的方法?问题不在于人工智能本身,而在于它是如何开发和使用的。有道德首先,组织需要理解为什么有道德的AI很重要——而不仅仅是不接受坏消息。人工智能的一大好处是它被用来产生大规模的影响,但这意味着错误或正确也会产生广泛的后果。回到前面提到的Deliveroo和Uber的例子,这些算法最终影响了许多工作和人。重要的是不要忘记人工智能对人类的影响。将道德注入人工智能实际上是防止偏见和其他风险的最佳方式。如果继续使用同样的传统方法和程序,同样的问题将继续出现,歧视虽然是无意识的,但肯定会继续下去。有了发达的人工智能,或许可以消除人类的偏见,但前提是人工智能要合乎道德。它不仅仅是一个理论陈述或研究(这不会误会我的意思,它非常重要),而是一种以正确方式为组织、为他们的客户和用户开展日常业务的工具。就这么简单。找出痛点道德人工智能的最大初始问题之一是“道德”的概念是模糊的并且可以解释。在组织希望创建符合道德规范的AI之前,需要明确定义他们对道德规范的理解,以确保每个人都在同一页面上。每个人都需要确定他们为什么要开发AI技术及其预期用途。清楚地概述和解释为什么以及如何使用人工智能技术,并制定规则,也有助于防止可能的滥用,就像优步的案例一样。将这些道德观念转化为人工智能的实际应用是企业面临的下一个重大挑战。在这里,当企业开始创建和开发算法时,问题就开始了:我们如何构建算法与我们如何使用它一样重要。初始数据输入和随后的计算模型将决定组织是否达到预期结果或造成道德困境。例如,许多算法以前是根据历史数据设计的,但这通常意味着旧模式可以简单地重复——继续处理相同的问题,可能具有相同的歧视或偏见。处理过去的问题组织需要停止重复相同的模式和相同的问题。很多都归结为数据。人工智能形成自己的模式,根据输入的数据生成执行任务的程序。因此,算法的好坏取决于它的数据。如果数据以某种方式被扭曲,就会影响最终的输出,一旦模式建立,AI就会简单地继续遵循它们。因此,高质量的数据以及了解这些数据的来源至关重要。组织必须使用最新的、干净的数据,如果需要,在采取任何步骤之前对其进行清理。算法最终基本实现了隐藏在数据中的模式;它是完成大量工作的数据。在这个阶段,还有一个可能的人为错误的关键因素需要注意。虽然数据可能已经过清理以有望防止可能的偏见或歧视,但负责输入数据和创建算法的人员可能会无意识地表现出他们的偏见或偏见。人工智能的发展需要以开放的心态和没有偏见的方式进行,以确保不形成歧视模式。我们经常谈论工作场所的多样性和包容性,我们需要开始考虑算法中的多样性和包容性!组织及其商业希望和抱负取决于他们的AI算法。因此,必须仔细周到地开发、定期测试这些算法,而不是草率地使用它们——我们如何使用它们与我们如何构建它们一样重要。对企业来说幸运的是,越来越多的外部支持创建有道德的AI,例如欧盟的AI七项原则,它为数据科学家和AI专家提供了一个框架,使有道德的AI应用程序能够运行。然而,归根结底,人工智能技术的成功和影响,无论是因创新而受到赞扬还是因歧视而受到谴责,都取决于各个组织以及他们如何开发和使用人工智能。
