霍金一直在告诫人类要谨慎对待人工智能。一旦人工智能发展起来,就会出现不可控的情况。例如,当人工智能发展到一个临界点时,就会诞生一个真正的智能潜伏者。一旦它拥有足够的权限或资源,它就会控制现有的人类技术。.在所有信息系统都会被人工智能控制的地方,只要有足够的权限或漏洞,我们的超级黑客就可以进入窃取、篡改、破坏甚至破坏。各国的安全系统、金融系统,小到与我们生活息息相关的笔记本电脑、汽车驾驶系统、手机,都被一个人工智能控制着,整个世界都是看不见的。谁能查出来??不要让人工智能有欲望。如果人工智能能够按照人类的想象继续为人类做贡献,这就是我们发展人工智能的初衷。万一有不法分子利用人工智能破坏人类社会的发展,甚至想要奴役全人类,我们将防不胜防。这里,人工智能产生欲望,不是说人工智能本身产生欲望,而是说有欲望的人+人工智能可以操作很多东西。总有一天银行系统会崩溃,总有一天弹道会自动发射,总有一天导航会把你引向深渊……我突然想起了那个siri,我有一种想干掉主人的冲动,我们人类都瑟瑟发抖。“设防”人工智能,建立体系在很多科幻片中,人工智能的设定不能侵犯人类,否则就会自爆或自毁。这是我们在未来世界限制人工智能的一种方式。所以,我觉得我们现在需要建立一些制度来限制我们的科技向文明的方向发展,不让高科技破坏我们现有的文明。比如我们国际上限制克隆技术,限制核能研发等等。我相信随着人工智能的发展,会出现与人工智能相关的制约因素。那个时候,霍金先生的担心就没有了。
