如果将人们的想象发挥到广泛的临床应用中,医疗AI还有很长的路要走。在7月10日发表在《医学互联网研究杂志》上的一篇论文中,加拿大多伦多大学的研究人员指出了医疗保健行业采用人工智能的主要障碍。多伦多大学的JamesShaw博士及其同事基于NASSS框架比较了AI与其他技术的市场渗透率,该框架将机器学习用例分为两大类,自动化和决策支持。NASSS是Nonadoption、Abandonment、ChallengestoScale-up、Spread、Sustainability的首字母缩写词。建议决策支持应用程序将导致自动化,至少在短期内如此。遵循NASSS框架,他们概述了阻碍人工智能实施重大决策支持的各种问题。重点是:1.有意义的决策支持Shaw解释说,“临床决策制定是一个复杂的过程,涉及各种数据源的集成,其中包括隐式和显式智能模式。”他补充说,“为了更直观地为决策过程提供信息,AI开发人员正在添加数据可视化等通信工具。这些通信工具的性质和价值是实施过程的核心,有助于确定算法输出是否以及如何纳入日常工作。”2用于可解释医疗保健的AI模型如何实现其结果?Shaw及其同事指出,即使是创造它们的计算机科学家也不知道答案。“缺乏对这些机制和背景的理解挑战了机器学习对医疗保健利益相关者的可接受性,”Shaw说。虽然可解释性问题显然与决策支持有关,但使用此处解释的机器学习案例。”他补充说,“这个问题可能更深刻地适用于以自动化为中心的用例,因为它们在医疗保健中占据重要地位。”3.隐私和同意有关可穿戴设备数据的立法和指南。同时,很多健康相关的应用在使用过程中产生的数据流中,一致性处理不明确。除了这两个明显的问题外,其他数据在与其他数据集链接时可以重新识别。“这些因素对寻求使用健康数据开发机器学习应用程序的项目构成重大风险,可能会遇到医疗保健提供者的重大阻力,”他说。4.AlgorithmicBiasShaw说:“算法的好坏取决于它们所训练的数据。”“如果训练数据是部分的或不完整的,或者只反映给定人口的一个子集,那么生成的模型将只与数据集中代表的人口相关,”他说。这引发了对数据来源??的质疑,并代表了一系列与决策算法中内置的偏见相关的问题。5.可扩展性和面临的障碍随着人工智能在医疗保健领域的应用迅速扩展,一些算法输出不可避免地会与其他算法混淆、矛盾或以其他方式竞争。Shaw说,“这种交互的影响无法提前预测,部分原因是交互的具体技术未知,可能没有在常规护理过程中实施。我们建议实施科学家需要考虑在医疗保健中实施和扩展机器学习的意外后果,这会给患者、医疗保健提供者和公众的安全带来更大的复杂性和更大的风险。肖和他的团队还发现了企业角色和医疗保健工作不断变化的障碍。在总结他们的观察和预测时,Shaw表示,机器学习在医疗保健领域的未来是积极但不确定的。他们认为,在很大程度上,接受和采用这项技术取决于所有医疗保健利益相关者、患者、提供者,以及人工智能开发人员。Shaw指出,“机器学习的应用变得更加复杂,数据可视化等传播策略的投资也在增长,机器学习很可能变得更加人性化和有效。如果实施,科学界是以一种惠及所有人的方式促进机器学习的采用,提出的问题将在未来几年得到充分关注。”
