前言几年前,很难找到学术机构以外的人认真讨论人工智能(AI)。但是今天,几乎每个人都在谈论人工智能。与所有新技术趋势一样,这股新浪潮激发了人们的好奇心和热情。公众的参与在产生伟大创意的同时,在许多情况下也导致了误解。人工智能由伟大的思想家和学术研究人员创建,然后由世界各地的学术界和工业界进一步发展,并且发展速度超出任何人的预期。今天,我们自身的生物学局限性越来越成为创建智能系统的主要障碍,这些系统应该与我们一起工作,利用我们的生物学认知能力实现更高的目标。在过去的几十年里,人工智能克服了许多学术障碍。然而,一旦涉及到现实生活场景,它就出现了很多问题,围绕它产生了很多神话和误解。不幸的是,由于关于AI能做什么和不能做什么的信息令人困惑和相互矛盾,在一个由爱好者、平台供应商和服务提供商组成的拥挤而嘈杂的生态系统中,行业很难区分事实和虚构,引领行业向前发展。因此,现在的主要挑战是如何让业界对人工智能能做什么和不能做什么有一个现实的定义,并不断更新,以引导他们的组织以正确的方式应用人工智能来解决现实世界的问题。问题并转变他们的业务。此外,学术界和人工智能从业者有责任走出泡沫,与行业专家合作,进一步发展人工智能的学术基础,使其更快地应用于现实世界。行业认知“一塌糊涂”过去几年,几乎所有行业都在尝试了解人工智能,以及企业如何从中受益。不幸的是,直到现在,大多数人工智能应用程序还没有超越概念验证(POC)阶段,即机器学习(ML)算法的小规模分散使用。现在的很多POC项目基本上都是用简单的统计方法,对自己的问题加上一些简单的预测或者分类,官方称之为AI。在实践中,这仍然可以定义为分析或高级分析,并且仍然需要大量的人工干预来理解结果并做出决定或采取行动。随着不断变化的业务流程和运营条件、新生成的数据以及不同业务因素的不断变化降低了准确性和价值,随着时间的推移,这些算法可能变得无用甚至导致危险的决策。这一现实让企业感到困惑,并阻碍他们以适当的方式采用先进的人工智能技术。目前,不少企业选择少量使用ML算法以获取快速收益,但这可能会导致跨行业AI应用受挫,从而引发又一次“AI寒冬”。当然,这次是在行业方面,而不是学术方面。然而,这并非没有缺点。虽然这种程度的AI采用让公司付出了很多机会和资源,但它有助于让业务和IT高管相信AI可以推动转型和相关创新。去中心化ML的诅咒对于一些雄心勃勃的商业领袖来说,使用开源ML库在他们自己和他们的业务领域内启动AI计划是很常见的,但只关注一些需要优化的关键决策。这些行动通常不是整个公司组织计划的一部分,虽然可以获得一些价值,提供使用AI解决问题的初步经验,但它会导致跨组织的ML算法支离破碎。不幸的是,这种去中心化的ML算法无法完全释放隐藏在数据中的价值,也无法充分利用组织拥有的宝贵业务知识。此外,它们对公司构成潜在风险。去中心化ML算法带来的一些主要风险是:在优化本地运营决策时,此类算法可能会无意中对其他业务领域甚至全球运营产生负面影响;这些单独的算法很容易被内部或外部行为者操纵和误导,从而增加了新的网络安全风险类别;训练ML算法可能需要昂贵的计算能力,这给小型业务部门增加了高昂的成本。在许多情况下,这导致业务部门完全放弃人工智能,因为他们错误地认为采用人工智能的成本很高。如果企业的业务功能和运营是直接相连的,它们产生的数据、创造的知识和遵循的角色是共享和相互依存的,那么人工智能就可以发现人类忽略的一些海量数据和特征。相互依赖的关系创建了一个强大的数据和知识平台,使跨组织的分布式人工智能系统能够将数据、知识和决策的分散性从弱点转变为主要优势。因此,组织现在可以迅速采取行动,将所有松散的AI策略和ML算法集成到整个企业的安全AI平台中。这将使现在不同但相互关联的人工智能解决方案能够提供真正的智能,在需要做出决策时为企业带来好处和转型能力。此举还将降低采用成本并提高投资回报率,从而加速人工智能的采用。使用AI技术还是打造智能企业?即便AI不具备这个能力,企业也必须提前问一个问题:他们是只想部分使用AI技术,还是最终打造一个全智能的企业?目前围绕机器人流程自动化(RPA)以及它们是否是AI的一部分,让关于AI整体应用的讨论脱轨。有很多公司在引入了这样的自动化流程之后,自以为是人工智能应用的先驱而沾沾自喜。然而,RPA并不是AI的一部分,至少根据学术定义不属于。目前的RPA技术只是一个简单的脚本。很多时候,这些脚本只是将人类多年积累的当前业务流程转移到自动化机器人上,设计主要还是以人的需求为出发点。事实上,这也是一个机会,一个通过RPA和智能过程自动化(IPA)重新设计劳动力的机会,在这个过程中,人和机器可以更智能、更紧密地协同工作。组织应该从一开始就致力于创建一个智能企业,不仅提供智能产品和服务,而且在内部采用智能流程。它充分利用了人类的生物智能和机器的人工智能能力,而不仅仅是自动化重复过程。考虑到智能企业越来越复杂的工件和内外业务环境,而我们的生物能力实在是有限,过多的传统人为干预实际上正在成为实现智能企业目标的主要瓶颈。因此,组织需要停止浪费时间讨论RPA,开始制定智能企业战略和路线图,其中应包括:智能企业的总体愿景、定义和路线图,包括如何动态查找产品、解决方案和服务问题为什么,什么,如何;为更紧密的人机工作方式而设计的新智能流程路线图;超越AI和ML算法的战略,以确定对端到端智能解决方案和产品至关重要的其他技术,例如新的传感技术、智能物联网网关、边缘计算硬件和包括量子计算在内的高性能计算机;创建构建、使用、操作和维护此类智能系统和解决方案所需的文化以及组织转型计划;一个创建创新生态系统的计划,该生态系统应该成为新业务不可或缺的一部分,以预见并为新业务和联合客户提供新的智能服务。由AI技术提供支持的人机界面(HMI)。误解数据到目前为止,训练、测试和验证当前??的ML算法,尤其是深度学习,仍然具有挑战性,因为它们需要大量优质数据。过去几年的数据表明,在许多情况下,组织在编写ML方法时没有足够数量和质量的历史数据。即使在数据充足的情况下,人类在使用初始算法之前,也必须在数据工程、数据分析、特征工程、特征选择、预测建模、模型选择和验证等不同领域投入大量精力。此外,人工调整第一代算法的内部结构设计,以及后续的不断改进,需要大量繁琐重复的工作,需要大量的计算能力。当前各种“预测分析”算法实际上是使用简单的统计模型根据可用的历史数据来预测某些事情。它基于这样一种假设,即未来将简单地重复过去发生的事情。显然,这种假设是错误的,一些“昂贵”的历史数据可能会产生误导。此外,科学家们越来越多地警告统计推断以及统计显着性和“p值-概率值”的滥用,这在某些情况下会导致灾难性的结果。一些科学家甚至呼吁放弃传统的统计概念,尤其是在需要高精度预测时。AI解决方案的安全性我们都希望AI解决方案能够以不同于传统软件解决方案的方式保护自己。人工智能系统在技术上有可能自动检测敌人的行为,甚至在某些情况下主动采取先发制人的措施来保护自己。如今,人工智能正被有效地用于增强传统的网络安全解决方案,以实现威胁的早期识别或预测,并针对敌方系统提出建议。不过,这只是对目标的保护,而对于自身的保护,AI可能就没那么好了。黑客可能不会窃取数据,而是简单地向AI系统提供虚假数据,从而操纵它们做出正确决策的能力。例如,黑客可以访问电子病历(EMR)以在MRI扫描中添加或删除医疗条件,这将导致ML算法的误判。核电站或智能电网中关键设备的财务数据或运行数据也会发生同样的情况。AI的标志之一是它们可以根据我们解决问题或做出决策的方式以及我们授予它们访问权限的外部数据源来学习保护自己。这种独特的性质也使其更容易受到新型网络威胁的攻击。这与误导人类行为的方式几乎相同。人工智能系统的道德风险人工智能伦理和偏见是当今最常讨论的话题之一。当我们根据经验创建ML算法规则时,这些算法也会直接反映我们思考和处理事物的方式。在许多情况下,例如诊断医学图像、预测设备故障或优化生产能力,道德和社会偏见可能不是需要解决的紧迫问题。这造成了一种误解,即AI没有偏见,许多公司没有意识到ML算法会给组织带来高风险甚至法律负担。例如,我们通常使用特定于设备的技术数据和其他操作和环境数据来训练ML算法,这些算法可以主动预测设备故障或指导我们如何提高其性能。在某些情况下,由于已知和未知变量较多,算法可能会倾向于根据故障率进行决策,从而导致业务中断。结论组织必须认真制定全面而灵活的人工智能战略,并立即启动适当的执行计划,为新时代做好准备。这一智能企业战略将有助于开创未来人机协作的新方式,重塑整体商业格局。这需要业务和IT领导层对AI现在和未来可以做什么有一个现实而准确的看法。此外,由在AI领域具有丰富学术和实践经验的人领导此类行动可以帮助消除炒作并避免代价高昂的社会误解。人工智能不应局限于少数几个职能领域,企业应预先考虑嵌入式、边缘化和集中式智能的混合和平衡方法,以确保组织的集体智慧在所有团队、职能领域、产品和服务发展。最重要的是,采用AI和与智能企业相关的技术可以拉近人与智能机器之间的距离,从而打造更具生产力和能力的劳动力结构。公司应该明白,人类和机器将成为新时代劳动力的两大支柱,并明智地计划以利用他们的综合优势,了解他们在生物和人工方面的局限性。作者:AhmedElAdl,计算机科学博士(人工智能和机器人)
