两部好莱坞大片《复仇者联盟2》和《超能查派》目前正在影院上映。
这两部影片的主角都是机器人:奥创和查派。
虽然它们在人类设计的世界中存在很大差异,但归根结底,它们都是人工智能主导的生命体。
但不要以为电影中的场景离你很远。
事实上,“人工智能”的概念是在世界上第一台计算机ENIAC问世不到十年后提出的。
而现在,人工智能已经无处不在——在远处,它就像IBM开发的超级国际象棋计算机“深蓝”,在不久的将来,它就像翻译软件、Siri和无人驾驶汽车。
其实它们都是人工智能,只不过更加复杂而已。
有些人工智能实现并普及后,人们就把它称为“智能”。
然而,与普通人对人工智能的好奇和期待相比,一些科学家和行业巨头却对人工智能的未来发展感到担忧,其中包括史蒂夫·霍金、比尔·盖茨和埃隆·马斯克。
比如,霍金很早就说过,人工智能是人类历史上出现过的最可怕的东西;而马斯克在麻省理工学院的演讲中也提到,人工智能将成为人类“最大的生存威胁”。
这似乎很难理解,因为无论是“深蓝”、Siri,还是无人驾驶汽车等,它们似乎都充满了积极的方面,都是技术进步的体现。
那么为什么我们仍然害怕他们呢?人工智能的分类 要回答这个问题,我们首先要了解人工智能的分类。
人工智能分为弱人工智能、强人工智能、超人工智能三种类型,它们本身也是递进的发展路线。
包括“深蓝”和Siri,其实都只是弱人工智能,真正让巨头们担心的还是后两者。
弱人工智能现在在生活中很常见,其特点是能够执行某些独立的能力,例如检索信息、生产操作等。
人们对弱人工智能的主要担忧是其具有一定的替代效应。
例如,生产机器人在某些生产环节取代人力资源后,可能会造成人类工作岗位的流失;而强人工智能,是指达到人类心理活动水平的智能。
它不仅能执行指令,还能思考、学习、理解,甚至进行抽象思维。
与弱人工智能相比,强人工智能的实施难度很大。
关键是它需要有“自我意识”——这意味着它不同于人类开发的其他技术,比如核武器和克隆,因为它可能会自己做一些事情;但目前,虽然人工智能在大多数需要思考(主要是(计算))领域的应用已经超过了人类,但在一些人类无需思考就能完成的事情上(比如下意识地避开飞球),它们还差得很远。
背后;而超级人工智能,顾名思义,就是超越人类能力的人工智能,包括在科学研究、社交、生产等领域,超级人工智能将比人类本身更聪明、更强大。
这也是最令人担忧的,因为如果超级人工智能比人类更强大,那么人类还有存在的必要和可能吗?霍金、盖茨和马斯克等悲观主义者认为,强人工智能在一定程度上仍然是可控的,但超级人工智能则不同,因为后者是可怕的。
重点是人们对此一无所知——是的,人类最多只能利用目前拥有的东西来预测未来可能发生的事情,但是超级人工智能的能力超过了人类,这意味着很多事情是人类无法做到的目前解决甚至预测对于超级人工智能来说可能都不是问题。
换句话说,人类无法预测超级人工智能。
现阶段,那些说人工智能不值得担心的人,包括百度人工智能负责人吴恩达,都是基于人工智能还有很长的发展时间这一事实——换句话说,他们并不是否认人工智能可能会带来毁灭。
相反,他们对这一时期的介入时间和人类技术的发展持乐观态度。
他们认为,人类有能力在超级人工智能引发灾难之前锁定并控制所有隐患,就像现在的停电一样。
断开互联网可以遏制弱人工智能的“生命”。
换句话说,时间是关键。
它不仅关系到人工智能的发展,也决定了人类是否有足够的时间做出反应和控制。
那么,我们能否对时间保持乐观呢?霍金没有自欺欺人,而是给出了20年内的估计,而马斯克则激进地表示5年内人类将陷入危险。
削去头尾之后,这个难以确定的时代或许就是当代人的未来。
只要你还活着。
而且很多人都知道一个道理。
技术越先进,技术本身的发展速度就越快。
这不仅体现在社会环境上,还体现在具体的产品上,比如智能手机的处理能力和互联网本身的发展。
它正在呈指数级增长。
从之前需要数年时间发展到现在的事情,从现在到下一个节点可能只需要50年,而之后则需要25年。
这就是为什么看似很遥远的超级人工智能,在强人工智能还难以实现的此刻却让人害怕——因为它可能开始很慢,但之后会变得越来越快,包括动物的进化。
他们自己。
他们现在所拥有的一些习惯,其实是经过长时间的适应和培养而遗传下来的。
不过,猿猴和人类的差距是很远的,但是普通人和高智商的人之间的距离就会缩小N倍。
也就是说,人工智能的发展在时间和效率上都会远远快于人类的发展(除非人类控制人工智能的发展始终保持相对平衡,但这并不容易)。
而就像人类不会停止自己的进步一样,人工智能也不会停留在强人工智能的阶段。
一旦他们达到了强人工智能,下一秒就会开始向超级人工智能的目标冲去。
以人类为代表的“碳文明”和以机器人为代表的“硅文明”的共存共生可能会出现,但可能只会持续一段时间。
实现超级人工智能后,他们会像现在人类对待动物一样对待人类,并且有足够的资本看不起后者的低能。
到那时,人类将像动物一样,再也无法理解超级人工智能的世界。
。
可以毫不夸张地说,我们现阶段预测的“背叛”(指机器可以在没有人类干预的情况下自主采取任何行动)到那时可能会成为一种自然法则,人类的社会结构将会发生变化。
结果可能会被破坏。
总结 正是这种在目前有限的知识下可以想象到的悲观结局,让大佬们一再呼吁人们警惕人工智能。
这也是他们作为行业领袖的责任。
但换个角度来看,或许超级人工智能实现后,将会把人类带入一个新的时代——甚至再次进化也并非不可能。
只是,无论好坏,人类永远不会是现在这个样子。
这就是为什么有人说超级人工智能将是人类最后的发明。