当前位置: 首页 > 科技观察

AI伦理:CIO应该问的五个问题

时间:2023-03-12 18:36:01 科技观察

【.com快译】如今采用人工智能工具的IT领导者面临问责制、隐私保护和维护道德的难题。引发人工智能伦理争论的五个问题需要引起注意。很多人已经意识到人工智能(AI)在很多方面改善了人们的工作和生活。人工智能系统已经被用于呼叫中心、自动驾驶汽车,以及通过快餐店的自助服务亭接受订单。未来,人工智能和机器学习将成为更加突出的技术,颠覆各行各业的发展。在人们将大部分工作和生活交给机器的时候,重要的是要了解什么道德在推动人工智能的采用和发展,以及谁在定义它的道路。许多CIO已经开始在用户可能看不到的领域采用AI技术,例如自动化仓库。但尤其是当首席信息官希望将人工智能的使用扩展到更多面向客户的领域时,他们必须意识到需要回答一些道德问题,否则就有可能成为责任的一部分。这里有五个需要回答的问题,以阐明道德如何影响人工智能系统,以及为什么首席信息官现在需要意识到关于它们的争论。1.机器可以负责吗?2019年,优步开发的自动驾驶汽车在亚利桑那州坦佩的街道上撞死了一名行人,原因是自动驾驶汽车没有将他识别为行人,因为行人没有通过人行横道。作为人类司机,他会意识到这是一个乱穿马路的人,并及时采取措施避让,那么这次事件中的这种疏忽应该由谁负责呢?亚利桑那州的一家法院裁定,由于行人坐在车里的“安全司机”疏忽大意,未能及时处理而被定罪,但总有一天汽车会真正实现无人驾驶。在这种情况下,优步是罪魁祸首吗?是激光雷达技术吗?如果忘记了违规的解释,是编写代码的程序员吗?疲劳、醉酒或分心的人类司机要安全得多,但仍然会造成人员伤亡,那么有多少呢?据美国交通部公路交通安全管理局调查数据显示,2017年全球平均行驶里程为1亿公里。1.16人死亡。相比之下,Waymo的自动驾驶汽车自2009年推出以来已经行驶了1000万英里。如果没有数十亿公里的安全测试,就无法知道自动驾驶汽车的安全性如何。是不是每一家租车公司和车企都会因为无人驾驶汽车造成的每一次死伤而被卷入这波诉讼浪潮中?为什么CIO应该关心:由于AI,责任模型可能会转移到生产者而不是消费者。对于那些实施这些解决方案的人来说,需要研究这可能会如何影响他们的业务,以便为此做好充分准备。2.无法解释的可以解释吗?人工智能和机器学习模型的任务是做出对人们的生活有重大影响的关键决策。可以告诉领导者要雇用哪个求职者,或者可以告诉法官可以对罪犯判处什么刑罚。因此面临的问题是如何解释做出这样决定的原因。深度学习模型通过神经网络工作,将接收到的输入数据处理成结果。人们无法轻易地通过这一系列的决定来理解它是如何做出的。当无法解释为什么一名囚犯因同一罪行被判处两个月徒刑而另一名被判一年徒刑时,这就成了一个问题。这在现实世界中是失败的,因为种族偏见会渗透到司法过程中的人类决策中。这种偏见在不知不觉中通过数据集传递给了AI模型。所以问责制是关键。为什么首席信息官应该关心:因为每个人都想知道人工智能软件是如何得出结论的,尤其是当决策似乎是错误的时候。神经网络让回答这些问题变得困难。人类可以输入模型以查看结果输出,但很大程度上取决于人类来解释机器在做什么,而不是确定性的。现在,人们不得不接受这个事实。3、人工智能的世界存在隐私吗?未来,家里的冰箱会提醒人们需要补充牛奶。在超市里,经过饼干货架时,会弹出一个虚拟广告牌,宣布奥利奥饼干正在销售。浏览货架时,每件商品旁边都会弹出营养信息。《少数派报告》这样的科幻电影即将成为现实。虽然这种信息爆炸和便利性受到欢迎,但实现它的工具却存在争议。大多数人都知道,每次打开手机时,他们都会放弃一定程度的隐私。人工智能加剧了这种情况,人们对此感到担忧。研究公司Genpact最近的一项研究发现,71%的消费者担心人工智能会继续侵犯他们的隐私。面部识别软件越来越好,从人群中提取面部特征。一些国家已经在部署面部识别系统来跟踪和控制某些群体,这只是更广泛监视的一个方面。尽管坚决反对这项技术,但不一定知道哪些公司或政府正在积极使用面部识别。一些科技公司正在避免争议,而其他公司,如Clearview,则向美国执法机构出售人工智能面部识别软件。为什么CIO应该关心:Facebook和谷歌在数据隐私方面遇到麻烦,监管机构越来越多地管理宽松的数据隐私标准。随着组织收集有关其客户的大量数据并使用人工智能和机器学习等工具从这些数据中提取更多信息,客户隐私需要成为他们考虑的首要问题。否则,这在技术上成为一切问题的根源时,就会有诉讼和处罚。4、恶意攻击能否遏制?无论一项技术有多么高尚的意图,总会有人试图利用它谋取私利。人工智能也不例外。黑客已经在使用它进行复杂的网络钓鱼攻击,并针对各种组织进行恶意网络攻击。僵尸网络正在积极尝试通过在社交媒体网络上传播虚假和误导性信息来影响政治选举。2016年美国总统大选期间大规模的虚假宣传活动非常有效,以至于有人质疑它是否会影响最终的选举结果。社交媒体公司已承诺加强对其网络的监管,希望在有害信息误导广大受众之前删除或标记错误信息。有的甚至利用人工智能技术改变人们对现实的认知。Deepfake是一种人工智能生成的视频或音频记录,可以伪造某人的言行。例如,通过发布埃隆·马斯克(ElonMusk)评论特斯拉(TSLA)未达到季度盈利预期的视频,从而压低股价。视觉威胁情报机构Sensity表示,deepfakes的实例数量预计每六个月翻一番,并将很快成为主流。如果取证技术不能解决这种技术带来的问题,那么Deepfake将带来毁灭性的后果。为什么CIO应该关心:网络安全形势越来越复杂。人工智能给了黑客一个可怕的新工具。从保护您的网络到冒充您的公司CEO,人们需要了解这些威胁并及时做出响应。5.谁负责AI伦理?所有这些问题的一个共同点是,谁负责建立和执行人工智能系统的道德标准?谷歌和微软等科技巨头表示,政府应该介入制定适当监管人工智能的法律。达成共识并不容易,需要许多利益相关者的投入,以确保社会面临的问题不会传递给人工智能模型。到目前为止,这一责任已经落到了外部监管机构和一些公开发表意见的科技公司的员工身上。经过数月的员工抗议,谷歌取消了其军用无人机人工智能项目。为此,许多公司任命了首席道德官来帮助引导业务部门进入这个新领域。为什么首席信息官会问这个问题:在国家和国际层面制定人工智能法规还有很长的路要走。人类必须自我监管人工智能的使用方式。有争议的人工智能实施将面临更多障碍。最终会发现有问题的做法。发生这种情况时,企业将被迫做出反应,而不是主动制定和实施道德人工智能政策。真正实现伦理优先的人工智能还有很长的路要走。通过提出这些棘手的问题,您可以确定人们希望AI在他们的生活和组织中发挥的作用。现在是时候了。人工智能每天都被要求解决更重要的问题。这就是人们在这些哲学问题中发现自己的地方。原因。只要你肯问,肯探究,答案就在那里。原标题:人工智能(AI)伦理:CIO应该问的5个问题,作者:MarkRunyon