当前位置: 首页 > 科技观察

一个数学悖论证明了人工智能的局限性

时间:2023-03-14 08:21:07 科技观察

人类通常善于识别错误,但人工智能系统却不是。一项新的研究表明,人工智能通常在本质上受到百年历史数学悖论的限制。与某些人一样,人工智能系统通常具有远超其实际能力的自信水平。就像一个过度自信的人一样,许多人工智能系统不知道自己什么时候犯了错误。有时,人工智能系统意识到它犯了错误比产生正确的结果更困难。剑桥大学和奥斯陆大学的研究人员表示,不稳定性是现代人工智能的致命弱点,数学悖论显示了人工智能的局限性。神经网络是人工智能领域最先进的工具,它大致模拟了大脑中神经元之间的连接。研究人员表明,稳定和准确的神经网络存在问题,但没有算法可以产生这样的网络。算法只有在特定情况下才能计算出稳定准确的神经网络。研究人员提出了一种分类法,描述了何时可以训练神经网络在特定条件下提供可信赖的人工智能系统。他们的结果发表在《美国国家科学院院刊》。深度学习是用于模式识别的领先人工智能技术,一直是令人窒息的头条新闻。例子包括比医生更准确地诊断疾病或通过自动驾驶预防交通事故。然而,许多深度学习系统是不可信的,很容易被愚弄。剑桥大学应用数学与理论物理系的合著者安德斯·汉森教授说:“许多人工智能系统不稳定,这正在成为一个主要问题,尤其是当它们越来越多地用于疾病高风险领域时例如诊断或自动驾驶汽车。”“如果人工智能系统要用于一旦出错可能造成真正伤害的领域,那么对这些系统的信任必须是重中之重。”研究人员揭开的悖论可以追溯到20世纪的两位数学巨人:阿兰·图灵和库尔特·哥德尔。20世纪初,数学家们试图证明数学是最终一致的科学语言。然而,图灵和哥德尔证明了数学核心的一个悖论:一些数学陈述无法证明是真或假,一些计算问题无法通过算法解决。而且,只要数学系统足够丰富来描述我们在学校学到的算术,它无法证明自己的一致性。几十年后,数学家史蒂夫·斯梅尔(SteveSmale)列出了21世纪18个未解决的数学问题。第18个问题涉及人类和机器智能的极限。“图灵和哥德尔首先发现的悖论有现在被Smale和其他人带到了人工智能的世界,”合著者应用数学系的MatthewColbrook博士说数学和理论物理。“数学存在固有的基本局限性,同样,人工智能算法也无法解决某些问题。”研究人员表示,由于这种悖论,在某些情况下可能拥有一个良好的神经网络,但无法建立一个本质上值得信赖的神经网络。神经网络。“无论你的数据多么准确,你永远不会拥有完美的信息来构建你需要的神经网络,”来自奥斯陆大学的共同作者VegardAntun博士说。无论训练数据量如何,都无法计算出现有的良好神经网络。无论算法可以访问多少数据,它都不会产生它需要的网络。“这类似于图灵的论点:存在无法解决的计算问题,无论计算能力和运行时间如何,”汉森说。研究人员表示,并非所有的人工智能都存在固有缺陷,但只有在特定领域使用特定方法时它才是可靠的。“问题在于你需要保证的领域,因为许多人工智能系统是一个黑匣子,”科尔布鲁克说。“在某些情况下,人工智能犯错完全没问题,但它需要诚实对待。这不是我们在许多系统中看到的——我们无法知道他们何时对自己的决定更有信心或更不自信”“目前,人工智能系统有时会对它们做出一些猜测,”汉森说。“你尝试一些东西,如果它不起作用,你会添加更多东西并希望它起作用。在某个时候,你厌倦了得不到你想要的东西,然后你尝试不同的方法。重要的是“了解不同的方法。我们正处于人工智能实际成功远远领先于理论和理解的阶段。需要一个了解人工智能计算基础的程序来弥合这一差距。“当20世纪的数学家发现不同的悖论时,他们并没有停止对数学的研究。他们只是需要找到新的路径,因为他们了解这些局限性,”科尔布鲁克说。“对于人工智能来说,可能需要改变路径或开发新的路径来构建能够以可信和透明的方式解决问题的系统,同时了解它们的局限性。”研究人员的下一阶段是结合逼近理论、数值分析和计算基础,以确定哪些神经网络可以通过算法计算,哪些神经网络稳定可靠。正如哥德尔和图灵在关于数学和计算机的局限性的悖论中提出的那样,理论导致了丰富的基础理论——描述数学和计算的局限性和可能性——也许类似的基础理论可能会在人工智能中开花结果。