如果一个人对机器学习有很多误解,可能会对他的职业生涯和声誉产生负面影响。ForresterResearch最近发布了一份题为“打破机器学习的七个神话”的报告。在其中,作者警告说:“不幸的是,一些对机器学习项目做出重要决策的商业领袖普遍存在对机器学习的误解。”当高管和经理谈论AI和机器学习时,他们有时会犯一些事实性错误,显示他们的真实知识水平。“当产品负责人说‘我们使用强化学习是因为我们将用户反馈纳入我们的趋势模型’之类的话时,这可能不是一件好事,”卡尔森说。“我和其他分析师一起参加了小组讨论,声音是,‘在无监督学习中,你不再需要人工参与或培训,’你还在等什么?”ABI首席分析师LianJyeSu说以他的经验来看,大部分高管围绕着机器学习的基础知识和“garbagein,garbageout”的原则有一些想法,但他们大多认为机器学习模型是黑盒子,机器学习需要大量的数据”我认为这主要是由于卷积神经网络无处不在,它需要大量数据并且在更多卷积层的情况下工作得更好,而且我相信一旦其他机器学习算法变得更流行,这种看法就会慢慢消失,连杰苏说道。问题之一是教育。政策制定者到底应该从哪里了解机器学习的真相?尽管Forrester的Carlsson认为两者之间的交叉点缺失,但从业者和企业级的选择仍然很多。“我认为我们最需要做的工作和我们最能提供帮助的地方是帮助业务方面的人充分了解这项技术,以了解这实际上有什么好处?我可以将其应用于哪些类型的问题?”卡尔森说。以下是导致常见误解的一些因素。术语不是很容易理解部分问题在于术语本身。人们有时将人工智能解释为像人一样思考的机器,而将机器学习解释为像人一样学习的机器。“数据科学家不是最好的术语,”ABIResearch的Su说。“我认为我们要部分归咎于分析师,因为我们经常使用大胆的措辞来介绍新技术。“不切实际的期望人工智能是一门强大的科学的普遍误解导致人们相信人工智能可以做任何事情。相反,当不同的技术适用于不同类型的用例时,深度学习有时被解释为一门更强大的学科。其他形式的机器学习“更好”。Forrester的Carlsson说,只是从你想要的东西开始,比如用虚拟代理替换呼叫中心的每个人,并不是很有帮助。他们在增强中建立,以帮助呼叫中心的某人.ABIResearch的Su表示,不切实际的期望是管理思维的炒作。未能理解机器学习的概率本质。传统上,软件是确定性构建的,这意味着给定的输入应该导致给定的输出。同样的是对于基于规则的AI来说是正确的。另一方面,机器学习有一定的误差。Forrester的Carlsson说,“在机器学习的世界里,你你很可能永远无法预测你想要预测的事情,因为信号不在你拥有的数据中。ABIResearch的Su表示,反对使用机器学习的一个论点是结果的概率性质。它从来没有像工业机器视觉中使用的传统基于规则的AI那样明确。忽略重要细节。发动机制造商想要预测何时需要更换零件。公司有很多关于发动机和发动机故障的数据,但都是实验室数据。现场没有运行发动机传感器。所以模型实际上并没有按预期部署。“在组织中,”Forrester的Carlsson说,实际上没有人监督数据工程方面(机器学习方面)的所有不同事情。“在技术能力和这些能力的投资回报率之间可能会失去一些常识。例如,已经建立了一些模型可以向销售人员推荐好的客户。问题是销售人员已经知道这些客户。无法理解机器学习”成功外行人对机器学习和人工智能的期望往往比他们实际的要高。虽然100%的准确率看似合理,但在某些情况下,可能会花费大量时间和金钱来提高1%的准确率。(1)上下文很重要,例如,当某人的生命或自由受到威胁时,准确性水平会有所不同,并且一定比例的人口可能会被某些事情轻微冒犯。”任务的性质,可以合理降低AI模型的准确性,是一种权衡,但前提是需要将其部署在AI上。边缘设备,”ABIResearch的Su说。“毕竟,我们人类通常没有那么准确。话虽如此,一些应用程序,例如对象分类、缺陷检查和装配线上的质量保证,确实对可重复性有严格的要求,这就是传统的基于规则的人工智能的用武之地。(2)可能是首选。Forrester的Carlsson表示,每个人都可以创建一个可以产生几乎99.99%准确率的模型。预测恐怖主义就是一个例子。这种情况很少发生,因此如果该模型始终无法预测恐怖主义,它将是一个非常准确的模型。(3)没有轻松的胜利科幻小说和广告让人们相信,在某些情况下,他们应该用人工智能和机器学习做一些非凡的事情。“当你说机器学习或人工智能时,人们会自动认为它们应该模仿人类行为,而这往往会忽略这项技术的巨大潜力,”卡尔森说。“机器学习真的很擅长大规模处理数据,并且做大规模的分析,这对我们人类来说真的很可怕。”要记住的7个提示(1)了解机器学习的能力和局限性,并在一定程度上了解不同技术的用例。这样,您就不太可能说出技术上不准确的话。(2)一种机器学习技术并不适用于所有情况。分类(例如识别猫和狗的图片)不同于在数据中寻找以前看不见的信号。(3)机器学习不是“一劳永逸”技术的集合。生产中的模型往往会“漂移”,这意味着它们变得不太准确。必须调整和重新训练机器学习模型以保持其准确性。“在软件开发中,存在对迭代需求的理解,”Forrester的Carlsson说。“当涉及到依赖机器学习模型的应用程序时,它们必须进行更多迭代,因为你迭代数据,实际业务和你使用的方法串联。因为我们不知道你有什么数据,或者什么业务数据能支持的场景,真正在项目之初就定下来了。”(4)机器学习准确性与实际数据相关。除了考虑与潜在错误相关的风险外,了解可能随时间发生的变化也很重要。“50.1%的计算机视觉模型很棒。或者你可以说60%或70%的准确度比我们以前所做的要好得多,”Carlsson说。(5)上下文很关键。无论上下文如何,人工智能和机器学习都不会达到相同的结果。上下文决定了哪些技术更好或更差,以及在给定情况下可接受或不可接受的置信度级别。上下文还涉及解决问题所需的数据以及偏见是可以接受还是不可接受。例如,歧视通常被认为是一件坏事,但可以理解为什么银行不会随便向任何人借出数百万美元。“在很多情况下,机器学习肯定不利于识别隐藏在数据中的过去偏见。在其他情况下,数据质量很重要,例如像素数、清晰的注释和干净的数据集,”苏说。另一方面,如果数据有误,再干净的数据也无济于事。“人们认为,当数据不存在且不起作用时,机器学习甚至人工智能会以某种方式做出惊人的事情。相反,人们认为只要我们拥有大量数据,我们就能做出惊人的事情,”Forrester的Carlsson说,这通常是不正确的。”拥有正确事物的低质量数据实际上比拥有大量错误事物的数据要好。“(6)了解机器学习是硬件和软件的结合。具体而言,ABIResearch的Su表示,软件功能只会与硬件可以提供或设计提供的功能一样好。(7)传统的基于规则的AI可能为了与基于机器学习的AI共存相当长一段时间,Su表示,某些任务将继续需要确定性而非概率性决策。
