新年在向我们招手。延续优良革命传统,最新一期人工智能专家预测报告发布时间到了。受访专家将根据自身认知、实验室发现和企业动态,预测新一年人工智能技术的发展方向。闲话少说,我们马上进入本次预测的正题。Modzy应用AI研究负责人ArashRahnama博士:正如AI系统的进步正在快速发展一样,对手诱使AI模型做出错误预测的能力也是如此。深度神经网络极易受到其输入材料(针对AI)施加的微妙对抗因素的影响,并且材料中的异常几乎是人眼无法察觉的。此类攻击无疑对在关键任务环境中成功部署AI模型构成重大风险。按照目前的发展速度,除非组织立即在人工智能安全工作中建立主动防御体系,否则2021年很可能成为人工智能重大安全事件频发的元年。2021年也将是可解释性全面实现的一年。随着组织继续集成AI解决方案,可解释性将成为建立用户对机器学习管道信任的核心先决条件。只有了解机器学习根据真实数据做出判断的基础,才能在人与模型之间建立可靠的信任关系。相反,我们将无法对基于人工智能的决策充满信心。总而言之,可解释性将在将AI应用程序推向下一阶段方面发挥至关重要的作用。可解释性结合前面提到的对抗性攻击训练方法,也将在人工智能领域掀起一场新的革命。可解释性将帮助我们了解哪些数据会影响模型预测,尤其是产生偏差的原因——这些信息可用于训练更稳定、更可靠、更能抵抗攻击影响的鲁棒模型。这种关于模型工作原理的战术知识将帮助我们提高模型的整体质量和安全性。AI科学家将重新定义模型性能,不再只涵盖预测准确性,还包括判断偏差、鲁棒性、在不确定环境中变化的通用能力等指标。Vicon公司生命科学产品经理KimDuffy博士仅关注未来一年,我们很难对人工智能(AI)和机器学习(ML)的发展做出准确预测。例如,在临床步态分析中,研究人员观察患者的下肢运动以确定步行和跑步障碍问题的根本原因。在这方面,AI、ML等技术的应用还处于起步阶段。Vicon在我们最近的《对人类运动的深入了解》报告中强调了这一点,并指出这些方法至少还需要几年时间才能真正在临床步态研究领域取得进展。有效的AI和ML方法需要大量的数据作为补充,才能用合适的算法有效地训练模型的趋势和模式识别能力。2021年,我们可能会看到更多的临床医生和生物力学研究人员在数据分析层面采用AI和ML方法。在过去的几年里,我们在步态研究领域看到了越来越多关于AI和ML的学术文献。我们相信这种势头将在2021年继续下去,临床和研究小组之间将进行更多合作,以开发可以帮助自动解释步态数据的机器学习算法。最终,这些算法有望加快在临床层面提出干预措施的速度。需要再次强调的是,机器学习的实际成果和收益不太可能在这么短的时间内实现。但在处理步态数据时,我们仍在越来越多地考虑和采用这些方法。比如最近在讨论定量运动分析的临床影响时,步态与姿势研究会主席表示,需要在大数据的基础上使用机器学习等方法来提高定量步态分析的研究效率,然后提供临床益处。决策提供了更全面的解释观点并减少了主观性。步态和临床运动分析协会也对AI/ML的新兴技术组合表示赞赏,这同样会鼓励更多的临床研究小组将两者纳入他们的研究。NuanceCommunicationsCTOJoePetro2021年,人??工智能技术将逐渐退出炒作周期,未来人工智能解决方案的承诺、主张和发展愿景将更多地体现在可论证的进展和可量化的产出上。结果是更多的组织将投入更多的精力来解决特定问题并实际构建解决方案以交付可转化为实际ROI的结果,而不是停留在PowerPoint演示文稿或为研发而研发的水平。在新的一年里,谁能帮助客户有效解决亟待解决的复杂性挑战,谁就能在AI/ML领域保持竞争优势。这样的客观现实,不仅会影响科技企业的研发投入方向,也会影响科技从业者规划学习路线和职业生涯的实际思路。随着人工智能不断渗透到技术领域的各个层面,人们也将越来越关注人工智能的伦理问题,深刻理解人工智能在产生意想不到的、有偏见的结果时所暴露出的深刻内涵。消费者将更加了解他们的数字足迹以及他们的个人数据如何被交互系统、行业和品牌使用。这意味着与人工智能供应商合作的公司需要更加关注客户数据的处理方式,以及是否存在任何第三方利用个人数据牟利的行为。Neurala联合创始人兼首席执行官MaxVersace博士在新的一年里,我们将能够使用更便宜、更小的硬件来部署AI解决方案。2020年是充满动荡的一年。面对难以捉摸的经济前景,以往资本密集、复杂的解决方案将不可避免地走向轻量级(或许只体现在软件层面)的低成本解决方案。这种方法将帮助制造商在短时间内实现投资回报,并大大减少前期投资的需要。它还将赋予企业更大的能力来应对供应链和客户需求的波动——面对新冠疫情的深远影响,这种灵活性已成为全球各行业生存所必需的。人类也会将注意力转向人工智能“为什么”做出自己的判断。在讨论人工智能的可解释性时,人们通常会关注偏见和其他伦理问题。但随着人工智能的发展,在结果变得更加准确可靠的同时,人们也会质疑人工智能做出判断的依据。我们不能完全信任我们不了解的自动系统。以制造场景为例,AI不仅需要准确判断产品是“良品”还是“次品”,还需要拿出令人信服的理由。只有这样,人类操作员才能对此类系统产生信心和信任,并最大程度地与其合作。新的一年,新的预言。所有前景的答案都将在来年揭晓;准确与否,让我们拭目以待。最后祝大家新年快乐!
