未来人工智能会威胁到人类吗?这6种策略可以防止它们“脱轨”一个独立思考并逃脱人类控制的机器人的故事。当然,在影片中,人类最终还是打败了机器人,但科学家们警告说,现在这样的威胁已经迫在眉睫,人类应该早点思考对策。科学家描述了这样一个“人工智能世界”:也许再过20年、30年,人工智能机器人可以和人类成为朋友,但50年后,人工智能将成为人类最大的威胁。世界终将因人工智能超越人类而爆发战争,而这场智能战争可能会夺去数十亿人的生命。科学家认为,人工智能迟早会超越人类。人脑的计算能力是10的16次方/秒,而人工智能机器的计算速度高达10的40次方/秒,是人脑水平的10的24次方。到那个时候,他们对待人类可能就像杀死一只蚊子一样简单。但人工大脑不会立即控制人类,在此之前还会有一段与人类“和平共处”的时期。在此期间,它正在接近而不是超越人类智能水平,因此“聊天机器人”、“家政机器人”和“陪伴机器人”将使人类的生活充满乐趣。但这样的美好不会长久,人工智能的持续发展将使人类面临灭顶之灾。科学家称,在大灾难来临之前,人类将分为三个派系:宇宙论者(主张发展人工智能的)、地球论者(反对发展人工智能的)和人工智能控制论者(将自己转化为人工智能的人)。机器人)。也许在人工智能对付人类之前,这三类人就会在人类内部展开斗争。考虑到这些可能的威胁,科学家们提出了六项有望避免悲剧发生的对策。1.将它们存放在低风险的环境中,以确保所有计算机和机器人永远不会做出可能导致无法提前预测的后果的决定。成功的可能性:非常低。工程师们现在已经构建了计算机和机器人系统,但他们的行为似乎并不总是可以预测的。消费者、行业和政府需要能够执行各种任务的技术,为了满足这种需求,公司将不断增加产品的数量和性能。为了实现这一战略,必须立即深入发展计算机和机器人技术。2.不要给他们武器成功的可能性:为时已晚。已经有半自主机器人武器系统,例如巡航导弹和无人驾驶飞机。一些持枪机器人也曾被派往伊拉克进行战场摄影,但显然并未实际部署。不过,军事决策者似乎对发展机器人士兵非常感兴趣,认为这是未来战争中减少伤亡的重要手段。停止自主武器的建造可能为时已晚,但限制机器人可以携带的武器或它们可以使用这些武器的条件可能还为时不晚。3.成功为他们制定行为准则的可能性;缓和。科幻作家艾萨克·阿西莫夫的著名规则是分层次的:首先,机器不应该伤害人类或对人类的伤害无动于衷;第二,机器人应该服从人类;机器人的自我保护是最低优先级。不过,阿西莫夫只是个小说家,并没有真正开发机器人。在他的小说故事中,他列出了仅仅因为这些简单的规则而可能出现的一系列问题,例如,当机器人同时收到两个人的两个相互冲突的命令时,它应该如何执行?Seamov的规则让机器人很难判断。例如,机器人如何理解正在为患者切开的外科医生实际上是在帮助患者?事实上,阿西莫夫的机器人故事已经非常清楚地表明了基于规则的道德的局限性。然而,规则可以成功地对机器人的行为进行约束,但同时将其功能限制在有限的空间内。4、编写机器人专用程序开发机器人的目的应该是“为最广泛的人群创造最大的利益”,或者说“己所不欲,勿施于人”。因此,机器人的发展应该从更安全的角度考虑,而不是放弃一些简单化的规则。成功的可能性:中等。由于这些规则的局限性,一些伦理学家正试图找到一个最重要的原则来评估机器人的所有行为。但是,刚刚提出的一些简单原则的道德价值和局限性可能会成为长期争论的主题。例如,牺牲一个生命来拯救五个生命似乎是合乎逻辑的。但医生不会因为这个逻辑而牺牲一个健康人,只为给五个病人提供他们需要的器官。机器人怎么看待这个逻辑?有时根据规则确定最佳选择是极其困难的。例如,确定哪种行为可能产生最大的利益可能需要大量的知识和对世界上各种行为的影响的理解。当然,做这种思考也需要大量的时间和计算能力。5.像教育孩子一样教育他们。在“成长”的过程中,机器人也要不断学习人类对各种行为的判断,从而提高对各种行为的敏感度。成功的可能性:有前途。虽然这一战略的实施需要一些重大的技术突破,但科学家们已经创造出可以像人类一样学习的机器人。当然,目前的工具非常有限。6.让机器人拥有一些像人类一样的功能,比如同情心、情感和理解非语言社交线索的能力,可以让机器人有更强的与人类互动的能力。科学家们已经在致力于将这些类人能力添加到家用机器人中。成功的可能性;开发具有共情能力的机器人,必将解决上述三个问题。人类在做出决定和与他人合作时理解他人观点、手势或意图的能力主要取决于我们的情绪。
