人工智能是一个充满活力的技术领域,为工业机器人技术和机器人过程自动化(RPA)中的新兴应用提供动力。与以往的变革性技术一样,人工智能带来的伦理问题正受到越来越多的关注,导致法规和政策限制其应用范围。那么,采用人工智能有哪些风险?正在采取哪些措施来促进人工智能的合乎道德的使用?人工智能和机器人技术的交集人工智能究竟是什么?它在机器人技术中扮演什么角色?随着时间的推移,利用能够学习和推理的计算、模式识别系统的概念已经扩展到整个机器学习、自然语言处理和数据科学。在工业机器人技术中,人工智能通常用于感知和感知物理机器运行的环境,以便安全地自动化操作(例如汽车装配线上的机械臂)。工业机器人通常仅限于重复运动,不需要持续学习,通常不被视为威胁。但人工智能不仅仅是工业机器中的传感器和执行器;它也是强大的建模软件、决策支持软件、预测分析软件和其他能够产生可疑的自主输出的智能应用程序开发背后的力量。因此,与机器人不同,人工智能应用程序接收大量数据,需要实时解释和分析以持续学习,因此更容易受到风险影响。什么是道德风险和其他风险?考虑到人工智能技术的范围仍在定义中,而且它运行的环境可能有些模糊,从伦理上实现人工智能的好处可能是一个相当大的挑战。无论如何,围绕AI潜在问题的争论仍在继续,目前主要集中在几个关键问题上:对个人和组织的威胁。不透明度/透明度-如何处理和使用数据?人工智能系统识别的模式可能并不真正代表分析决策输出。选择了哪些数据以及如何确定其质量?系统需要建立透明度、社区参与和“算法问责制”,以确保人们相信AI衍生的输出是合乎道德、公平和公正的。偏见——偏见会以多种方式影响算法,无论是使用有缺陷的数据还是与手头问题无关的数据集(统计偏见),无意识地将积极或消极的品质归因于被分析的对象(无意识的偏见),或者解释以确认个人先入为主的观念(确认偏见)的方式提供信息。解决伦理问题与AI出现之前的其他颠覆性技术一样,法规也正在迎头赶上,因为它涉及到这一令人难以置信的增长和机遇领域。在检测和消除AI系统中的偏见的早期阶段,有大量的技术和应用。此外,技术修复有其局限性,因为它们需要发展难以实现的数学公平概念。虽然实际颁布的政策很少,但已经有了一些显着的开端。美国数据创新中心发布的2019年欧盟政策文件提出,“可信赖的人工智能”应具有法律、伦理和技术稳健性,并明确了实现这些目标的要求:人工监督、技术稳健性、隐私和安全数据治理、透明度、公平性、福利和问责制。现在,即2021年4月,欧盟框架已被写入法规,导致拟议的立法被称为首创政策,概述政府和企业如何使用被视为最重要的技术之一。评估AI应用程序的框架AI可以为成功利用其力量的企业带来巨大利益,但如果在没有道德保障的情况下实施,它也可能损害企业的声誉和未来绩效。然而,与蓝牙等其他新引入的技术不同,制定标准或起草法律并不容易。这是因为人工智能涵盖了一个广泛的、无定形的领域——从战场机器人到用于审查合同的自动法律助理的一切。事实上,几乎所有与机器学习和数据科学相关的东西现在都被认为是人工智能的一种形式,在制定行业标准方面让人工智能相形见绌。展望未来,一个确保道德实施的拟议框架成为焦点。该框架围绕四个关键支柱构建:信任、透明、公平和隐私。可信度——首先,能够证明人工智能应用的可信度是需要确认的根本问题。人们需要知道他们使用的AI应用程序来自可靠的来源,并且是在负责任和可信的监督下开发的。透明度——对AI的使用方式保持透明并解释其在特定用例场景中的好处将大大有助于减少担忧和扩大采用。公平——开发者需要证明人工智能是以公平公正的方式部署的。由于处于基本状态的人工智能缺乏应用判断的能力,而是主要侧重于模式识别,因此需要对算法进行微调以消除偏见。还应引入流程以避免人类经验产生偏差。隐私——开发人员必须考虑到人工智能的使用可能会影响嵌入到正在处理的数据中的任何个人身份信息(PII)。虽然人工智能处理确实消除了一些隐私问题,因为它绕过了人类与敏感数据的交互,但它也引发了其他问题,例如信息的使用地点、存储地点以及谁有权访问信息。结论AI将继续存在,行业参与者需要积极思考并找到将其应用程序嵌入上述框架的方法。一种可能性是使用同行评审系统来帮助建立信任并提高透明度。在这里,AI开发人员将提交他们的用例以供在类似于以前的开源环境的AI社区中进行审查。虽然开源最初遭遇挫折,但它最终扭转了局面。起初,免费赠送源代码的想法吓坏了全球科技公司的首席财务官。社区监控、更新和提供评论的开源软件的发布带来的透明度创造了巨大的效率,并随着时间的推移导致更重要的发展。当今没有一家软件公司不利用开源代码。另一种提高AI应用清晰度的方法是建立一个临时组织,并将他们的项目和应用提交给中央AI注册表。与通常由控制议程的大型组织主导的正式标准机构不同,注册表将是一个自我报告的机构,用于提供反馈、建议和验证。最终,确保以合乎道德的方式部署AI应用程序的最佳方法可能是从一开始就将道德规范纳入计算机科学课程。
