当前位置: 首页 > 科技观察

人工智能的可实现视角

时间:2023-03-17 17:45:56 科技观察

半个世纪以来,人工智能一直是一个计算梦想,总是遥不可及。但是有很多方法可以部署AI来产生真正的好处。60年代的人们对人工智能充满了美好的未来憧憬,但半个世纪过去了,这一前景仍未实现。人们现在确信,尽管早期进展缓慢,但人工智能的应用愿景已经真正实现。似乎每个使用软件的产品都声称由人工智能提供支持。面对这些宣传和炒作,人们必须对人工智能的真正发展有清醒的认识。AI的下一件大事人们正处于对AI应用感到兴奋的阶段。在某些方面,人工智能被吹捧为最终成为现实,这要归功于处理能力的新发展。生活被颠覆、工作被智能机器取代的愿景再一次盛行。廉价图形处理单元的可用性使卷积神经网络在某些应用程序(例如图像识别)中具有商业用途。市场上几乎所有的软件都被宣传为“由AI提供支持”,但在公司将其业务的未来寄托在AI上之前,明智的做法是检查一些现实情况。实用的人工智能长期以来一直是“下一件大事”。它有望减轻人们日常工作的负担,同时帮助人们取得难以想象的科学和工程成就。还有更多的反乌托邦情景,人工智能取代了绝大多数劳动力,导致大量工作岗位被人工智能驱动的机器所取代,甚至有人断定人类是多余的、效率低下的,将会有一个电影中想象的人类与机器的终极战争《终结者》。这些愿景在很长一段时间内都不可能实现。大约20年前,一位专家提出人工智能代表“人工智能不是发明”的观点,当时他是对的,现在也是。人工智能的实际应用已经成熟。然而,这些应用是有限的,值得注意的是,通用人工智能与以往一样遥远。定义人工智能当大多数人听到“人工智能”这个词时,通常会想到科幻小说中描述的人工智能,它可以响应一些含糊不清的语音命令,并执行复杂的计算和逻辑行为。这些令人印象深刻的机器得出的结论是,人类由于记忆力有限和推理能力较慢,最终将被人工智能超越,但这是一个不精确和不正确的定义,原因很简单,人们很难定义“聪明”。抛开所谓的智力测试,例如智商(IQ)测试或学业成绩测试,例如用于大学招生的测试。大多数人都知道,由于各种原因,被认为非常聪明的人在这些测试中得分不高。相反,出于讨论目的,需要考虑存储和回忆、联想和推理的组合,以及将创造性解决方案应用于新情况的能力。诚然,这个定义是有限且不精确的,但我们对人脑功能的理解也是如此。事实上,人类的思想远远超出了它自己的理解范围,以至于人们甚至无法就人类的意义达成一致。不过,这个智能定义将服务于后续讨论AI能力的需要。要了解真正的智慧与人的差距,我建议阅读行业专家道格拉斯·霍夫施塔特(DouglasHofstadter)撰写的一本关于该主题的开创性书籍,其中涉及哥德尔、埃舍尔、巴赫等人。这本书写于40年前,打破了在最低层次思考的含义,深入探讨了简单的数学概念,以及人们在日常生活中使用算术时如何思考极其抽象的概念。它被发现是一本很有启发性的读物,它让人们认识到AGI比想象的要远得多。考虑一下:要对计算机进行编程以正确执行数学计算,人类必须以惊人的精度理解各个方面。如果人们甚至不了解智能是什么,怎么可能将计算机编程为真正的智能?可实现的人工智能不可能将计算机编程视为真正的智能,但可以将计算机编程视为一种有限的智能,尤其是在专业领域。IBM的Watson可能是此类机器最著名的例子,但即使是Watson也有一些明显的局限性。无论如何,大多数企业都没有安装和使用Watson规模的AI项目所需的资源。但是,在有限的技术范围内,还有另一种途径可以实现人工智能的一些好处。最基本的第一步是改进数据建模。正如专家所说,以本体的形式定义数据模型是一个好主意,因为它有助于定义数据的语法和语义。使用WebOntologyLanguage(OWL)建模的数据以支持机器推理的格式记录,机器推理是一种简单但功能强大的基本人工智能形式。因为WebOntologyLanguage(OWL)建立在称为“描述逻辑”的推理分支中,它适用于许多基于逻辑的推理过程,这些过程既强大又可解释。随着基于AI的应用程序部署在医疗和军事行动等应用程序中,解释AI过程如何得出其结果的能力变得越来越重要。在根据AI辅助建议做出任何重要决定之前,用户理所当然地希望了解AI将如何得出该结论。这推动了对“可解释的人工智能”的渴望。卷积神经网络(CNN)可以执行令人印象深刻的图像识别功能,但很难准确跟踪它们如何做出决策。有很多层次的分类和比较,最终的结果是非常准确和一致的。但这并不意味着实际上可以解释卷积神经网络(CNN)如何针对每张图像做出决定。相反,当数据模型使用WebOntologyLanguage(OWL)或其他形式逻辑表示(例如公共逻辑)形式化时,可以编写推理规则并使用形式逻辑规则应用它们。考虑一个简单的例子:创建一个简单的数据模型,其中包含一个类“Person”,它具有两个属性“name”和“sex”。可以在Person类的实例之间建立两种关系:“has_parent”和“has_sibling”。使用这个简单的模型,可以存储像PersonAhas_siblingPersonB和PersonBhas_ParentPersonC这样的数据。采取像“如果Person1has_siblingperson2,并且Person2sex=Female,则Person1has_sisterPerson2”这样的简单规则,可以为数据库中的每个人推断出新知识(请记住,原始数据模型不包括姐妹的概念)。人们可以使用类似的规则来推断祖父母、兄弟、堂兄弟等关系。由于这一切都基于形式逻辑,因此结果是完全可以解释的。但结果无法解释,事实证明是正确的。可以使用现成的推理技术(商业和开源)执行此类推理。Protégé等本体编辑工具可以使用HermiT、Pellet等多种推理引擎。有许多支持这种基于逻辑的推理的数据库和分析产品,如果配置得当,它们的性能可与其他数据库技术相媲美。基于逻辑的推理无法为人们提供一个可以讨论黑格尔哲学精髓或谱写钢琴奏鸣曲的人工智能系统。但是有可能为人们提供可以执行许多常规数据处理任务的人工智能系统。