人工智能技术既有正面影响,也有负面影响。在造福人类的同时,也存在着各种风险。理论上,可能存在以下四种风险。技术失控了。技术失控是指技术的发展超出了人类的控制范围,甚至人类都被技术所控制。这是很多人最担心的风险。现有的人工智能技术只有在满足强封闭性准则的情况下才能发挥其强大的功能;在非封闭场景下,现有人工智能技术的能力远不如人类,现实世界中的大部分场景都是非封闭的。关闭。因此,目前不存在技术失控的风险。滥用技术。与信息技术相关的技术滥用包括数据隐私问题、安全问题和公平问题。人工智能技术的应用可以放大这些问题的严重性,也可能产生新型的技术滥用。在现有条件下,人工智能技术本身是中性的,是否存在误用完全取决于技术的使用。因此,关注人工智能技术的滥用和风险防范应提上议事日程。应用风险。应用风险是指技术的应用会导致负面社会后果的可能性。现在最大的担忧是,人工智能在一些行业的广泛应用会导致大量失业。应用风险是由技术的应用引起的,关键在于应用的控制。根据强封闭性原则,人工智能技术在实体经济中的应用往往需要场景转换的帮助,而场景转换完全在人类的控制之下,或多或少取决于相关的产业决策。管理失败。人工智能是一项新技术,其应用是一个新事物。社会缺乏管理经验,很容易陷入“管则死,放则乱”的境地。为此,更需要深入了解现有人工智能成果的技术性质和技术条件,确保监管措施的针对性和有效性。目前对人工智能存在三种误解:一是人工智能是万能的,可以无条件地应用现有的人工智能技术。根据强封闭性原则,现有的人工智能技术远非万能的,其应用是有条件的。因此,在工业应用中,迫切需要加强对强闭合准则的理解,加强场景切割和场景变换,避免违反强闭合准则的盲目应用。这种盲目性在国内外非常普遍,不仅浪费资源,更严重的是干扰有前途的成功应用。第二,现有的人工智能技术无法大规模应用,因为现有的人工智能技术依赖于人工标注,并不智能。现有的人工智能技术并不局限于深度学习,而是将蛮力法与训练法相结合,可以避免人工标注,满足强封闭准则的应用场景可以有效实现数据采集和人工标注。目前的一些应用之所以不成功,是因为违反了强遏制原则,而不是因为现有的AI技术无法应用。这种误区往往发生在对人工智能技术有一定了解,但又不是很了解的情况下。和第一个误区一样,这个误区会严重影响我国人工智能产业应用的进程。三是未来20到30年,人工智能技术的发展将超过某个临界点,之后人工智能将不受人类控制,自由发展。根据强闭合性原则和全球人工智能研究现状,这种“奇点论”在技术领域并无科学依据。闭合准则中包含的一些条件,例如模型的语义完整性和代表性数据集的有限确定性,通常需要通过强闭合准则所需的人工措施来辅助。完全不同于想象,未来有可能突破这些局限,而人工智能有能力突破这些局限。哪怕以后打破了某个限制,也会有新的限制来限制。这种说法隐含地假设可以存在脱离特定条件的人工智能技术。这种技术是否可能存在,目前还没有任何科学依据支持,需要未来的观察和判断。以上三个误区是我国人工智能发展的主要思想障碍。封闭性和强封闭性原则是基于现有人工智能技术的本质,为消除这些误解提供了基础,也为观察、思考和研究人工智能发展中的其他问题提供了依据,避免了过去人为放大“周期波动”的干扰,提供了新的视角。
