当前位置: 首页 > 科技观察

AI与隐私热议了解AI的利弊透明度_0

时间:2023-03-12 02:30:39 科技观察

随着AI越来越多地被应用于更多行业,其用户试图在保护用户隐私和有效保护其实用性之间取得微妙的平衡。AI的一个常见良好做法是对AI的使用以及它如何实现特定结果保持透明。然而,这种透明度既有好的一面也有坏的一面。以下是您应该了解的有关AI透明度的优缺点,以及解决这种困难平衡的可能解决方案。好处AI可提高效率、利用创新并简化流程。对其工作方式和计算结果保持透明可以带来多项社会和商业优势,包括:正义人工智能的使用数量在过去几年中持续增长。人工智能甚至已经扩展到司法系统,它可以做任何事情,从开罚单到比陪审团更公平。当公司对人工智能的使用保持透明时,他们可以增加用户诉诸司法的机会。人们可以看到人工智能如何收集关键信息并取得特定结果。与不使用人工智能相比,他们可以获得更多的技术和信息。避免歧视性AI的最初缺点之一是,当AI用于检测模式并根据其收集的数据对用户做出假设时,它可能会产生歧视性结果。然而,人工智能在今天变得更加复杂,甚至被用来检测歧视。AI可以确保包括所有用户或听到他们的声音。在这方面,人工智能可以成为一个很好的均衡器。灌输信任当AI用户预先了解他们对AI的使用并向他们的客户群解释这种使用时,他们更有可能灌输信任。人们需要知道一家公司是如何取得特定成果的,而透明度有助于弥合企业与其客户之间的差距。客户愿意拥抱人工智能。在Salesforce的“互联消费者状况”中接受调查的消费者中有62%表示他们愿意接受AI来改善他们的体验,并且企业愿意满足这种需求。根据埃森哲最近的一项调查,72%的高管表示他们希望透明地使用人工智能来获得客户对产品或服务的信任和信心。对人工智能的使用和为保护用户数据采取的安全措施保持透明的公司可能会从这种提高的透明度中受益。更明智的决策当人们知道他们正在与人工智能系统交互而不是被欺骗以为它是人类时,他们通常可以调整自己的行为以获得所需的信息。例如,人们可能会在聊天框中使用关键字而不是完整的句子。用户可能会更好地了解这些系统的优势和局限性,并做出有意识的决定与人工智能系统进行交互。缺点虽然透明度可以带来上面提到的一些积极成果,但它也有一些缺点,包括以下内容:缺乏隐私反对人工智能及其透明度的一个重要论据是可能缺乏隐私。人工智能通常会收集大数据并使用独特的算法为该数据分配价值。但为了获得结果,AI通常会跟踪每一次在线活动(您可以免费获得背景调查)、AI跟踪、搜索和使用商业网站。其中一些信息也可能会出售给第三方。此外,人工智能经常被用来追踪人们的在线行为,从中他们可以辨别出一个人的关键信息,包括他或她的:种族、政治信仰、宗教信仰、性别、性取向、健康状况,即使人们选择不要将此敏感信息提供给任何在线信息,他们仍可能因AI功能而遭受信息丢失。此外,AI可能会跟踪公开可用的信息。然而,当没有人检查此信息的准确性时,一个人的信息可能会与另一个人的信息混淆。破解解释当一家公司发布其对人工智能的解释时,黑客可能会利用这些信息来操纵系统。例如,黑客可能能够对代码或输入进行微小的更改以获得不准确的结果。这样,黑客就可以利用公司自身的透明度来抵御它。当黑客了解AI背后的原因时,他们可能会影响算法。通常不鼓励使用这种技术来检测欺诈。因此,当利益相关者不采取其他步骤时,系统可能更容易操作。知识产权盗窃当一家公司对其人工智能的使用保持透明时,可能出现的另一个潜在问题是这些黑客可能窃取了其专有的商业机密或知识产权。这些人可能能够查看公司的解释并重新创建专有算法,从而损害业务。易受攻击由于在线信息如此之多,7800万美国人表示他们担心在线安全。当公司阐明如何使用AI时,黑客可能更容易访问消费者的信息或造成可能导致身份盗用的数据泄露,例如臭名昭??著的Equifax数据泄露泄露了1.48亿美国人的私人记录。监管敏感性关于人工智能的披露可能会带来其他风险,例如更严格的监管。当人工智能令人困惑和难以使用时,监管机构可能不理解它或无法对其进行监管。但是,当企业对人工智能的作用保持透明时,这可能会导致围绕人工智能及其使用方式建立更重要的监管框架。这样,创新者就可以因为他们的创新而受到惩罚。诉讼目标更容易当企业清楚他们如何保护消费者数据以实现透明度时,他们可能会在不知不觉中使自己更容易受到消费者指控他们的信息被不当使用的法律索赔。聪明的律师可以仔细审查AI透明度信息,然后开发有关企业使用AI的创新法律理论。例如,他们可能会关注公司在保护消费者隐私方面没有采取的措施。然后,他们可能会使用此信息来指控企业的行为或疏忽。此外,许多人工智能系统在更简单的模型上运行。对其算法透明的公司可能会使用不太复杂的算法,这些算法可能会忽略某些信息或在某些情况下导致错误。经验丰富的律师可能能够识别由AI引起的其他问题,以证实其对企业的法律索赔。AI和隐私的真相任何看过《终结者》电影(或者基本上是世界末日电影)的人都知道,即??使是出于最崇高的原因而开发的技术也有可能被武器化或用于最终危害社会的事物.由于潜在的危害,许多法律已经通过,要求某些公司对其使用人工智能保持透明。例如,金融服务公司必须披露他们在确定一个人的信用度时使用的主要因素,以及他们在贷款决定中采取不利行动的原因。立法者正在积极提议和考虑额外的法律。如果获得通过,这些法律可能会规定企业必须遵守的新义务,包括他们如何收集信息、如何使用人工智能,以及他们是否首先需要消费者的同意。2019年,一项行政命令签署成为法律,指示联邦机构将资源用于人工智能的开发和维护,并呼吁制定指导方针和标准,以允许联邦机构以保护隐私和国家安全的方式监管人工智能技术。即使公司尚未被要求对其使用人工智能保持透明,他们也可能很快就别无选择。为了应对这一可能的结果,一些企业正在积极建立内部审查委员会来测试人工智能并确定围绕它的道德问题。他们还可以与法律部门和开发人员合作,为他们发现的问题创建解决方案。通过在强制披露之前仔细评估其潜在风险并确定问题的解决方案,企业可以更好地避免与AI透明度相关的风险。