邓宁-克鲁格效应(Dunning-Krugereffect)是一种明显的偏见:指缺乏根据自己考虑不周的决定得出错误结论的能力,但不能正确认识自己的缺点,辨别错误行为。这些无能者沉浸在自己创造的虚无缥缈的优势中,往往高估了自己的能力水平,却无法客观评价他人的能力。今天,我们看到互联网、区块链、云计算等技术的兴起,堪称人类近代史上的三大科技热潮。然而,在这些技术的应用中,我们却不幸地看到了这种效果的出现。大量没有足够实力的厂商借用这些新兴词汇进行炒作和夸大。那么,人工智能(AI)和机器学习(ML)是昙花一现还是希望?这里可以肯定的一件事是,未来的人工智能将更多地相互交互,例如,许多网络安全工作将由它们管理,但不是今天。技术有一种反抗预测的方式,它的实现要么比预期早得多,要么晚得多。在人工智能技术的远古时代,人们希望它“很快解决问题”,但这已经是50年前的事了。事实上,我们还没有解决图灵测试问题:对于智人来说,没有其他智能可以与之对话(至少自尼安德特人、能人、直立人等其他人种灭绝以来是这样。还有以后就没有了)。如果有一天我们能创造出这些会思考的机器,恐怕我们会完全放弃“人工”这个词。最重要的语义差异是AI是沿着智能连续体的认知探索,而不是“愚蠢”与“Hal9000”(2001年太空漫游中的杀手机器人)的二元对立。打个简单的比方:房子是用很多工具盖起来的,木工工具就是一套工具。但这并不意味着拥有木工工具就可以称为房子。推而广之,将ML应用程序称为AI是不正确的,但这正在安全领域发生。有人成功地改变了概念,植入了AI标识,其实是大错特错。今天,ML正在复兴并蓬勃发展,尽管它实际上是一些旧工具的集合,无论如何都不是很神奇。但考虑到计算和数据的无处不在,好消息是我们正在看到所谓真正华丽、实用、智能的机器学习应用和大量安全应用的爆炸式增长。但坏消息是,我们仍然看到ML在商业计划、技术文档和营销中被用作神奇的语言。每当使用该术语时,首先应该能够回答使用什么类型的机器学习(例如线性回归、逻辑回归、决策树、SVM、朴素贝叶斯、K-NN、K-Means、随机森林、降维、ETC。)。以及它是如何部署和训练的。这不需要ML学位,但应该以普通人可以理解的方式回答。这里也有希望,因为我们正在进入安全领域“人工辅助”ML应用程序的黄金时代。我们依靠“超级炒作”来解决我们在会议报告和科幻论文中的所有问题,现在我们在得到任何真正有用的东西之前就已经到了尾声。机器学习最有希望实现自动化并让人类更有效地完成恶意软件预测、事件响应、取证指导和类似应用程序等任务。虽然它们不会神奇地解决所有问题,但它们使我们的网络安全问题更容易处理,从而使人类更容易工作。有一天ML和AI将改变攻防安全格局,但不是今天。不过,这项研究不需要产生那些令人兴奋的结果,因为围绕身份验证、边界控制、风险分析、漏洞管理、内部威胁检测、捕获、补救等方面的工作正在变得越来越好。用马克吐温的话来说:“持续改进胜于后期改进”。
