当前位置: 首页 > 科技观察

负责任地使用人工智能如何创造更安全的在线空间

时间:2023-03-22 01:55:30 科技观察

人工智能算法对人类生活和更广泛的社会产生巨大影响。围绕人工智能的道德困境包括数字差异及其武器化。自治应该与人类监督相平衡,同时促进负责任地使用人工智能,以便利用它来解决歧视问题。在计算、数据科学和海量数据集可用性的推动下,人工智能(AI)已成为一种强大的日常现实和商业工具。谷歌、亚马逊和Meta等大型科技公司现在正在开发基于人工智能的系统。该技术可以模仿人类语言、检测疾病、预测犯罪活动、起草法律合同、解决可访问性问题以及比人类更好地执行任务。对于企业而言,人工智能有望预测业务成果、改进流程并提高效率,同时显着节省成本。但对人工智能的担忧仍在增加。AI算法变得如此强大,以至于一些专家将AI标记为有感知力,任何腐败、篡改、偏见或歧视都可能对组织、人类生活和社会产生巨大影响。数字取证人工智能决策越来越大地影响和改变着人们的生活。不负责任地使用它们会加剧现有的人类偏见和歧视措施,例如种族定性、行为预测或性取向识别。这种固有偏见的发生是因为AI的好坏取决于我们可以为其提供的训练数据量,而这很容易受到人类偏见的影响。当机器学习算法在未充分代表某些人群(例如女性、有色人种或具有特定年龄人口统计特征的人)的数据上进行训练和测试时,也会出现偏差。例如,研究表明,有色人种特别容易受到面部识别技术中算法偏差的影响。使用中也会出现偏差。例如,为特定应用程序设计的算法可能会用于意外目的,这可能导致对输出的误解。验证AI性能AI主导的歧视可能是抽象的、不直观的、微妙的、不可见的和不可察觉的。源代码可能受到限制,或者审计人员可能不知道算法是如何部署的。进入算法以查看其编写方式和响应方式的复杂性不可低估。当前的隐私法依赖于通知和选择;结果,要求消费者同意冗长的隐私政策的通知很少被阅读。如果将此类通知应用于人工智能,将对消费者和社会的安全和隐私造成严重后果。人工智能作为武器虽然真正的人工智能恶意软件可能还不存在,但假设人工智能恶意软件会增强攻击者的能力并不牵强。可能性是无穷无尽的——从环境中学习以识别和利用新漏洞的恶意软件、针对基于AI的安全性进行测试的工具,或者可以通过错误信息毒害AI的恶意软件。人工智能操纵的数字内容已经被用于实时创建个人的超现实合成副本(也称为深度伪造)。因此,攻击者将使用deepfakes创建高度针对性的社会工程攻击,造成财务损失,操纵舆论或获得竞争优势。“人工智能主导的歧视可能是抽象的、非直觉的、微妙的、不可见的和不可察觉的。源代码可能受到限制,或者审计人员可能不知道算法是如何部署的。”—SteveDurbin,信息安全论坛首席执行官减轻与人工智能相关的风险随着人工智能决策越来越大地影响人们的生活,企业负有道德、社会和信托责任,以合乎道德的方式管理人工智能的采用。他们可以通过多种方式做到这一点。1.将道德规范转化为衡量标准有道德的AI遵守明确定义的道德准则和基本价值观,例如个人权利、隐私、非歧视,以及重要的非操纵。组织必须建立明确的原则来识别、衡量、评估和减轻人工智能主导的风险。接下来,他们必须将它们转化为实用的、可衡量的指标,并将它们嵌入到日常流程中。2.了解偏见的来源拥有正确的工具来调查偏见的来源并了解公平对决策的影响对于开发符合道德规范的AI绝对至关重要。识别使用机器学习的系统,确定它们对业务的重要性,并针对AI引起的偏差实施流程、控制和对策。3.平衡自治与人为监督组织应建立一个跨领域的道德委员会,以监督人工智能系统在组织和供应链中引入的风险的持续管理和监控。委员会必须由来自不同背景的人组成,以确保对所有道德问题保持敏感。算法的设计必须考虑专家意见、情境知识和对历史偏见的认识。必须在金融交易等关键领域强制执行人工授权流程,以防止它们被恶意行为者破坏。4.赋予员工权力并促进负责任的AI培养一种文化,让个人可以在不扼杀创新的情况下提出对AI系统的担忧。通过透明地处理角色、期望和责任,建立对AI的内部信任和信心。认识到对新角色的需求,并主动提高技能、重新学习技能或聘用。如果需要,通过提供更大的控制权和对追索权的访问权来赋予用户权力。强有力的领导对于赋予员工权力和将负责任的AI提升为企业的当务之急也至关重要。5.使用人工智能解决歧视程序化检查是评估人类公平的传统方法,它可以通过在人类决策过程中运行算法、比较结果并解释机器主导决策背后的原因来受益于人工智能。另一个例子是麻省理工学院打击系统性种族主义的研究计划,该计划致力于开发和使用计算工具,以在社会的许多不同部门创造种族平等。