当前位置: 首页 > 科技观察

人工智能和机器学习需要跨越三道坎

时间:2023-03-12 17:41:33 科技观察

【.com快译】虽然我们还处于人工智能革命的初期,但人工智能做不到的事情已经不多了。从商业困境到社会问题,都需要人工智能来解决传统解决方案缺乏的棘手问题。希望无限,AI能做的有没有极限?是的,人工智能和机器学习确实有一些明显的局限性。任何希望实施AI的组织都需要了解这些限制,以免因对AI的误解而陷入困境。让我们来看看人工智能面临的三大障碍。1.数据问题人工智能离不开机器学习算法。这些算法或模型消耗大量数据来识别模式并得出结论。这些模型使用标记数据进行训练,这些标记数据代表了人工智能实际会遇到的无数场景。例如,医生必须在每张X光片上贴上标签,以表明是否存在肿瘤,以及肿瘤的类型。只有在检查了数千张X光片后,AI才能自主正确地标记新的X光片。这种数据收集和标记对人类来说是一个耗时的过程。在某些情况下,我们缺乏足够的数据来充分构建模型。自动驾驶汽车在处理它们遇到的所有挑战时面临困难。想象一场倾盆大雨,你在挡风玻璃前两英尺都看不见,更不用说道路标记了。人工智能可以安全地处理这些情况吗?训练人类记录数十万英里的所有这些棘手的使用场景,以查看算法如何反应并进行相应调整。在其他情况下,我们有足够的数据,但由于引入偏差而无意中污染了它。当我们查看因持有大麻而被逮捕的种族记录时,我们会得出一些错误的结论。黑人被捕的可能性是白人的3.64倍。这可能使我们得出结论,黑人是使用重度大麻的种族。然而,如果不分析大麻使用统计数据,我们就看不到种族之间仅仅2%的差异。如果我们不考虑数据中固有的偏差,我们将得出错误的结论。当我们共享有缺陷的数据集时,这个问题会进一步复杂化。无论是需要手动记录数据,还是缺乏高质量数据,都有大有前途的解决方案。强化学习有一天可能会在标记过程中将人类变成监督者。这种训练机器人并使用正负强化的方法可以用来训练人工智能模型。说到缺失数据,虚拟模拟可以帮助我们填补空白。它们模拟目标环境,让我们的模型能够在物理世界之外学习。2.黑盒效应任何软件程序都是基于逻辑的。可以跟踪输入系统的一组输入,以查看它们如何触发结果。对于人工智能来说,它并不那么透明。建立在神经网络之上,最终结果可能难以解释。我们称之为黑盒效应。我们知道它有效,但不知道它是如何工作的。这可能会导致问题。在求职者找不到工作或罪犯服刑时间过长的情况下,我们必须证明算法的使用是合理且值得信赖的。如果我们无法解释这些大型深度学习网络如何做出这些决定,就会出现许多令人头疼的法律和监管问题。克服黑盒效应的最佳方法是分解算法的功能并为其提供不同的输入以查看效果。简而言之,是人类在解释AI的行为。这不是科学。要让AI跨越这个巨大的障碍,还需要做更多的工作。3.通用系统遥不可及。任何担心未来人工智能会接管世界的人都可以放心。人工智能非常擅长模式识别,但不要指望它能在更高层次的意识中发挥作用。史蒂夫沃兹尼亚克称之为咖啡测试。机器能否进入普通美国家庭,冲泡一杯咖啡?这包括找到咖啡研磨机、找到杯子、识别咖啡机、加水并按下正确的按钮。这叫强人工智能:人工智能有了飞跃,可以模拟人的智能。在研究人员努力解决这个问题的同时,其他人质疑人工智能是否真的可以实现这一目标。人工智能和机器学习是不断发展的技术。今天的局限就是明天的成功。关键是要不断试验并找到可以为您的组织增加价值的地方。虽然我们应该认识到人工智能的局限性,但不应该让它成为这场革命的阻碍。原标题:人工智能和机器学习需要克服的3个障碍,作者:MarkRunyon