从平等代表到AI立法提高AI伦理标准需要技术和新法律的平等代表,例如欧盟拟议的AI立法EthicsAI需要付诸实践,新立法将有助于实现这一点.随着组织希望利用该技术的潜力来显着改善运营和客户体验,人工智能(AI)的使用正在激增。如果任其发展,人工智能使用的这种增长可能是危险的。弹劾人民的权利,影响他们的生计,甚至制造战争威胁。人工智能伦理——一套价值观、原则和技术,是公认的对与错标准,指导人工智能技术开发和使用中的道德行为——以及更高水平的技术多样性和人工智能算法的创造,代表了一种解决方案未经检查的人工智能威胁。本文将探讨如果不加以控制,AI会如何产生破坏性、平等代表在AI创造中的重要性和教育系统的作用、通过透明度建立信任的重要性、欧盟委员会最近的AI立法提案及其影响对于人工智能。智能对欧盟和世界其他地区的工业意味着什么,以及组织如何实施符合道德标准的AI。人工智能歧视人工智能在医疗保健等行业的使用正在创造巨大的、前所未有的好处,例如癌症的早期检测。然而,这项技术可能会造成很大的伤害,尤其是当它与歧视有关时。就人工智能招聘而言,CliffordChanceTechGroup的合伙人兼联席主管JonathanKewley解释说,在某些情况下,算法会根据他们的宗教、种族、教育或地理位置来解雇合格的候选人。“问题是一些公司[使用AI招聘服务]不了解这项技术是如何运作的,他们看不到内在的偏见,这是内在的偏见。突然之间,他们有了看不见的大问题,”他说。问题并不止于招聘过程。在英国和最近在荷兰的Uber司机都声称Uber的算法不公平地解雇了他们。“[这些AI算法]会从根本上损害某人的生活前景、他们找工作的能力、他们获得医疗保健的能力、他们购买产品或获得抵押贷款的能力。我认为公众没有完全意识到这一点然而。这项技术中的某些东西是多么阴险,”Kewley补充道。为了克服这种人工智能歧视及其对人们生活的影响,人工智能算法需要访问代表产品试图服务的人群的正确数据集——几乎在所有情况下,每个人口统计数据都应该被代表以消除人工智能偏见。平等代表和教育障碍从根本上说,人工智能算法是由人类构建的。技术是社会的创造,它需要代表整个社会。问题在于,绝大多数研究STEM学科然后设计AI算法的人都来自特定人群;白人,中产阶级男性。技术的多样性严重不足,不仅在性别方面,而且在少数民族和弱势背景方面也是如此。在解决教育和工作场所代表性不足的问题之前,AI中的偏见和歧视问题将在性别、种族和社会经济背景中持续存在。这方面的例子很多。一个是Apple的信用卡,据称它为男性和女性提供不同的信用额度,另一个是A-Level算法的细分,该算法根据学生所在的位置对他们进行评分。有一些举措可以帮助纠正这种平衡。例如,CliffordChance与牛津大学赫特福德学院推出了一项助学金计划,以鼓励更多元化的学生群体学习计算机科学。其目的是激励来自代表性不足的群体的年轻人从事与技术相关的职业,并以此减少持续存在的技术偏见和偏见案例。对此,Kewley评论道:“如果你有一群来自不同背景的人主持,并且能够代表我们社会的声音和不同观点,那么他们构建的技术就不太可能存在偏见。”你想要的所有法律。但实际上,我们需要从教育的基石入手,以确保我们从一开始就构建合乎道德的技术。这意味着不同的人群学习计算机科学,而不仅仅是特权白人。CliffordChance的高级律师HerbertSwaniker同意创造教育机会和机会至关重要。他说:“政府在技术素养方面做了大量工作,尤其是人工智能。公司的部分职责是提供有关这些技术平台如何运作的信息,以便人们可以更好地信任该技术。但是,至关重要的是人们想要参与-并且拥有教育接入点至关重要。“AI企业指南:它适合您的业务吗?虽然真正的人工智能还有一段路要走,但企业正在利用机器学习等智能自动化来改善业务运营、推动创新和改善客户体验。AI立法将把更多不同的人才引入技术将有助于解决AI偏见和歧视。但是,监管环境也必须得到批准;需要更加明确。目前,人工智能的发展和应用都披着一层无形的外衣。这就是欧盟提出AI立法的原因,Kewley称其为“20年来最先进的法律框架”,也是未来人工智能伦理的必要“安全标准”。如果生效,该提案将要求人工智能系统的提供者和用户遵守有关数据透明度、治理、记录保存和文档的特定规则。它还需要对高风险区域进行人工监督,并制定稳健性、准确性和安全性标准。人工智能供应商和用户需要满足这些要求,才能在欧盟市场上提供或投入使用。如果不遵守立法,如果获得批准,将导致与GDPR类似的罚款,外加更高的罚款:3000万欧元或上一财政年度年营业额的6%,以严重者为准。在某些情况下,这些规则也适用于位于欧盟以外的公司。与其他地区相比,欧盟对这项人工智能立法采取了大胆的做法。相比之下,美国不会像欧盟那样对新法规采取如此激进的立场,因为担心这会抑制创新。根据Kewley的说法,“美国将采取更自由的方式。他们认为现有的框架,例如FTC,足以规范该领域。”放眼东方,可以说是世界人工智能强国,人工智能不应该被用来针对、剥削或伤害人类。欧盟拟议的人工智能立法是迄今为止最全面的。然而,它不仅仅是一个地区。需要就此问题进行全球多边辩论。当涉及到他们的数据和人工智能的力量时,通过透明度获得信任至关重要,而这项新法律可能有助于为公众带来一个新的启蒙时代,类似于剑桥分析丑闻。工作透明的组织将有助于在他们所服务的人群中建立信任。“企业现在有机会超越这一点并拥抱透明度,而不仅仅是成为下一个合规问题,”Swaniker说。根据EnforcementSwaniker的说法,拟议的AI立法的执行将很有趣,就像执行GDPR存在挑战一样。“在最终规则出台之前,我们还有一段路要走。但很明显,整个框架都是基于风险的,这将鼓励公司必须有意义地评估特定产品是否在下意识地试图操纵人们。”毫无疑问,这将很难执行,因此需要完善这个概念,使其更符合目的,”他说。Swaniker还指出,与世界其他地区相比,该法规采用了非常欧洲的方法,因为它是基于欧洲的基本权利概念,这些概念基于欧盟法律,但在其他司法管辖区并不相同。他补充说,如上所述,其他国家有现行法律,无论它们是什么,都要求公司对他们如何使用人工智能负责。“说欧洲正在做某事而没有其他国家关心是不公平的。在如何规范人工智能和技术的使用方面存在不同的区域方法。”“这是关于人工智能如何使用的监管,而不是人类智能本身,这是一个重要的细微差别,因为它涉及组织实际考虑他们使用人工智能是否具有高风险”实施人工智能道德标准欧盟人工智能立法的主要原则之一是需要在高风险区域进行人为监督。采用和实施该技术的提供商和组织需要仔细控制其使用方式,并进行严格审查以确保其安全,然后再继续操作。与当前的做法不同,当组织部署该技术时,他们必须对其进行审查。在实践中,Kewley建议组织在实施AI道德标准时需要进行取证。他说:“企业习惯于会计原则和财务审计,并围绕这些做法建立了整个团队和方法。这是他们DNA的一部分,这将是实施符合道德标准的AI的最佳方式,它可以有效地准确知道你在做什么使用,在哪个环境中使用它,以及结果是什么。了解产品生命周期、它的部署方式、在哪些国家/地区以及它做出的决定也很重要。”未来,组织也将需要部署团队来监督AI以及“机器人”的工作方式。任其发展,这项技术可能很危险,需要创建全新的团队和工作方式。
