由于真正的人工智能技术还不成熟,人类对自主智能的风险预测大多集中在高智能机器人等更可想象的“强人工智能”上;随着物联网/AI世代的到来,“弱人工智能”率先深入到人类生活中,这些具有自主思考能力的机器所产生的不确定性也开始在人类社会中发酵。我们必须更早地审视所有可能影响人工智能的范围和它创造的风险。资源分布极不平衡人工智能已经开始改变我们的工作方式。2016年全球经济论坛预测,人工智能和机器学习将在未来几年造成约700万个工作机会消失,同时创造200万个新工作机会。创造就业机会;英国物理学家霍金也认为,人工智能的兴起可能会重创中产阶级,导致少数特定工作岗位流失,导致经济严重失衡。这些推论都认为,人类“现有职业”将被机器轻易、快速复制,造成经济阶层结构调整和技术性失业,生产效率和利润将集中在少数人手中。拥有高度人工智能资源的群体,因此贫富差距极其尖锐,社会高度暴露在资源分配不均的风险环境中。信息垄断人类的思维无法脱离自身经验的范围,机器也是如此。没有数据,即使有最好的计算硬件和计算方法,人工智能也无法在目标领域发挥作用。未来,当相关软硬件技术到位后,“足够有用(海量且有标记)的数据”将成为人工智能产业立足的最重要关键之一。各领域的领导者会收集大量关键数据,建立壁垒产生分裂,会增加普通用户获取数据的成本,造成“智者愈智,愚者愈愚”的信息垄断风险。未来没有隐私麦肯锡预测,2025年将有1万亿种物体连接到互联网,这意味着在物联网的趋势下,未来我们可能被信息收集者包围,而在人工智能技术的覆盖下,这些信息收集传感器可能具有自主思考的能力,能够判断出开启传感器所需的时机。无论未来隐私权防控能走多远,人工智能与万物互联的协同,都将从一开始就将隐私权相关风险推向极高水平。当网络时代社会异化盛行时,依赖在线虚拟世界进行社交的人数显着增加。与现实世界不同的是,网络虚拟世界的友善充满了想象和人们相互交流的机会。互联网的虚拟人格似乎也变得更加勇敢和富有创造力;但这毕竟不是现实世界,会造成严重依赖它的群体与现实世界存在较大差距,从而造成社会疏离的风险。在未来的人工智能时代,这个虚拟世界得到了延伸,各种虚拟现实和人工智能技术让这个虚拟世界变得更加真实,进而催生出更多的上述依赖集群,从而产生在现实社会中更多的人际交往中。异化现象。没有自主性智能科技时代,是不是人类的所有决策都是自主的?过滤气泡现象或许已经给出了一个警示信号:人工智能已经进化到可以判断我们在日常生活中经常看到和想看到的信息,然后过滤掉它认为对人们有用的信息。机器为所欲为的做法有助于节省大量时间,但也让我们获得的信息越来越简单。目前,这种现象在搜索引擎、社区群等互联网上普遍存在。在未来人工智能对象更加普及的世界中,这种人类过度依赖和被挑剔(或被针对)的现象将向恶化的方向升级,导致人类无法独立思考的风险。各个领域。在某种程度上,也可以看作是人类心灵的灭绝危机。
