当前位置: 首页 > 科技观察

海外专家对人工智能未来的四个可怕预测

时间:2023-03-17 18:27:52 科技观察

随着人工智能技术的成熟,一些人担心人们对该技术更广泛的社会和道德影响没有给予足够的重视。专家们参与进来,探索他们认为最可怕的AI前景中的五个。一提到人工智能,人们总会想到杀手机器人和电脑失控的场景。《银翼杀手》和《终结者》系列的好莱坞电影给我们灌输了一种恐惧感,即人工智能会突破编程,将矛头指向人类。对于一个预计今年将产生超过1万亿美元商业价值,到2022年将产生近4万亿美元价值的行业,对其道德影响的任何重大怀疑都会产生巨大影响。人工智能是一个流行词,已经对许多行业产生了显着影响——尤其是那些依赖大量体力劳动的行业。随着公司在人工智能技术成熟时继续加大对人工智能技术的投资,一些人担心对该技术更广泛的社会和道德影响没有给予足够的重视。NBC因此特意邀请了多位专家就此展开讨论,探讨他们认为最可怕的五种人工智能发展前景。1、全球失业分析师和工人普遍担心,人工智能的广泛应用会导致全球失业,因为工作越来越自动化,不再需要大量体力劳动。英国爱丁堡大学信息学院教授AlanBundy表示,“失业可能是人们最担心的问题。人们需要编排一系列非常有针对性的应用程序,并找到这些程序能够发挥作用的边缘案例。”无法应对,但这不能代替预期。大规模失业——至少不会持续很长时间。”人工智能的支持者表示,这项技术将创造新的就业机会。新技术的复杂性需要合适的人来开发它们,因此,对工程师的需求将会增加。他们还表示,为了在日常工作中承担新的角色,人类也必须使用人工智能。Gartner预测,到2020年,人工智能将创造230万个工作岗位,同时消除180万个工作岗位——净增加50万个工作岗位。但这并不否认人工智能在全球范围内造成大规模裁员的可能性。根据英国牛津大学2013年的一项研究,最有可能被取代的一些工作包括经济业务人员、银行出纳员、保险承销商和税务规划师——这些工作技能不高,但对维持金融业至关重要。手术。虽然人工智能对劳动力市场的损害可以通过提高技能和创造新的工作岗位——甚至可能引入普遍的基本收入——来最小化,但很明显,失业率不会很快得到解决。2、战争随着“杀手机器人”的出现以及人工智能在军事领域的运用,专家们担心这项技术最终可能会引发战争。特斯拉首席执行官埃隆马斯克以其对人工智能直言不讳的观点而闻名。去年,他警告说人工智能可能导致第三次世界大战。虽然马斯克以夸张着称,但他的评论传达了专家们真正的恐惧。根据一些分析人士和活动家的说法,致命自主武器的发展和人工智能在军事决策中的使用造成了许多道德困境,增加了人工智能主导战争的可能性。甚至有一些非政府组织致力于禁用此类机器。2013年成立的NoKillerRobots组织呼吁政府阻止人工智能无人机和其他工具的开发。今年早些时候,美国国防智库兰德公司在一项研究中警告说,人工智能在军事领域的应用可能会在2040年前引发核战争。阿姆斯特丹自由大学人工智能研究所的弗兰克·范·哈梅伦说,“我认为唯一可以使用‘可怕’这个词的领域是自主武器系统……看起来像机器人的系统,可能看起来不像机器人。任何自动决定生死的东西。计算机系统,无论是人工智能还是非人工智能——比如发射导弹——是非常可怕的想法。”这一大胆预测背后的真相是,如果军事人工智能系统在分析情况时出现错误,它将导致各国做出鲁莽的、甚至是灾难性的决定。3.机器人医生虽然专家们普遍认为人工智能在医学上的应用有很多好处,例如更早地诊断疾病和加快整体医疗体验,一些医生和学者担心我们可能向数据驱动的医疗实践方向发展过快。学者们还担心对人工智能的期望过高,它可以塑造人类爱丁堡大学的Bundy说:“到目前为止,所有人工智能应用都非常成功,但范围很窄,”他补充说,这些期望可能会对医疗保健等行业产生可怕的后果上周,一家健康刊物发表了一份引用IBM内部文件的报告。报告显示,IBM的Watson超级计算机提出了许多“不安全和不正确”的癌症治疗建议,但该软件经过训练只能处理假设场景中的少数病例。另一个担忧是,计算机占用和共享的数据,以及使用它来自动化应用程序的数据驱动算法,可能会侵犯患者隐私。事实证明,存储和共享数据令人担忧。以“深度思维”(DeepMind)为例。2015年,谷歌旗下的人工智能公司与英国国家医疗服务体系(NHS)签署协议,获得160万英国患者的健康数据。这笔交易意味着患者将他们的数据交给公司,以提高其项目检测疾病的能力。这也催生了一个名为Streams的应用程序,该应用程序旨在检测患有肾脏疾病的患者,并在他们的病情恶化时提醒医生。然而去年,英国隐私监管机构信息专员办公室(ICO)裁定NHS与DeepMind之间的协议违反了数据保护法。ICO表示,伦敦皇家自由医院在如何使用患者数据作为协议的一部分方面缺乏透明度。4.歧视一些读者可能还记得两年前微软开发的人工智能聊天机器人Tay。该机器人有一个Twitter帐户,一些用户花了不到一天的时间就训练它发布攻击性推文以支持阿道夫希特勒和白人至上。这一错误迫使微软停用了该账户,这一事件引发了关于人工智能潜在歧视的激烈讨论。沃尔什说,歧视是技术的一系列“意外后果”之一。“我们在计算程序,尤其是机器学习中看到了意想不到的偏见,它们有可能导致种族主义、性别歧视,在过去的50多年里,我们一直在努力从我们的社会中消除这些偏见,”他说说。消灭它。”专家表示,这个问题涉及将人工智能变成不偏袒特定种族或性别的客观理性的思考者。这是研究人员和开发人员一直在认真考虑的事情。IBM甚至有研究人员致力于解决人工智能中的歧视问题。今年早些时候,IBM表示将发布两个数据集,其中包含具有不同肤色和其他面部特征的人脸,以减少AI面部识别系统中的偏差。