当一个新的概念成为可行的商业工具时,很多企业都会积极采用这项技术来加入市场潮流。
这包括人工智能 (AI) 和机器学习 (ML)。
从具有百年历史的高科技巨头到创新型初创企业,各种规模的组织都在投入时间和资源来加速技术发展并利用其促进业务发展。
但人工智能不仅仅是一种流行时尚。
分析机构Tractica预测,全球企业在人工智能方面的支出将从2018年的6.44亿美元增长到2018年的近1亿美元,并将成为高效销售平台和虚拟数字接待员、儿童玩具、自动驾驶汽车的驱动力用于开发产品或服务等各个方面。
人工智能 (AI) 和机器学习 (ML) 最终将为大多数企业提供动力。
人工智能的驱动力是什么?那就是强大的数据和处理能力。
巨大的潜力,巨大的局限性 人工智能对垂直行业和每个企业的潜在影响不可低估。
随着无辅助机器学习、自然语言处理 (NLP) 和深度学习能力的提高,每种技能的应用将继续增长并扩展到新的用例。
许多公司已经在研究如何将人工智能 (AI) 和机器学习 (ML) 技术用于对象识别和跟踪、本地化地理数据、防止欺诈、改善营销结果以及许多其他应用。
虽然这些领域的参与者正在寻求采用这项技术来实现这一承诺,但其他公司已经将这些创新应用到自动驾驶汽车、呼叫中心、客户服务和网络安全等实际应用中。
采用人工智能技术的企业多年来一直在系统地、战略性地聚合数据。
他们已经领先于刚刚开始关注数据收集和组织的组织。
但他们也面临着人工智能(AI)和机器学习(ML)技术的最大限制:容量。
功率、容量和速度对于智能技术至关重要。
人工神经网络 (ANN) 推动了人工智能 (AI) 和机器学习 (ML) 的发展,旨在并行建模和处理输入和输出之间的关系。
为此,他们需要存储大量输入数据,并需要大规模计算来理解这些关系并提供适当的输出。
考虑部署聊天机器人来提供客户自助服务并协助联络中心的客户服务代理团队。
在理想的情况下,机器人可以准确地回答问题,将客户引导到适当的资源,并且通常以自然的方式与客户交互。
为了实现这一目标,机器人的后端需要快速将查询与企业消费者群使用的词典(即他们的母语)进行比较,以“理解”交互的上下文并根据这些输入“做出决策”能够像人类一样正确反应并立即执行。
然而,这些进程所需的处理器和内存资源 (DRAM) 会消耗大量带宽,超出了大多数本地数据中心网络设计的处理能力。
它们还增加了相当大的功率开销,因为涉及的 CPU 或 GPU 数量远远超过大多数组织的准备数量。
尝试在单个数据中心内完成这一切将会带来延迟问题,这可能会破坏产品或阻碍应用程序尝试完成的任何任务。
那么企业应该做什么呢?通过直接云连接最大限度地提高人工智能性能使用流程密集型人工智能应用程序的企业越来越多地转向混合就绪边缘数据中心,以解决带宽和计算挑战、降低运营成本并消除延迟问题。
混合就绪数据中心需要做的是向设施内的云提供商提供简单的入口,以显着减少延迟和数据传输成本。
与全球互联网相比,直接云互连产品可减少延迟并降低数据传输成本,同时无需手动为每个提供商提供私有 WAN 连接。
靠近云提供商的核心计算节点,以进一步减少专用环境和所选云提供商之间的延迟。
通过将信息移近尽可能多的最终用户和设备来处理更靠近用户或设备的信息,从而显着提高性能和可靠性。
这对于支持自动驾驶汽车或网络安全操作等延迟敏感的人工智能应用特别有利,同时还可以最大限度地提高工作负载灵活性和成本管理。
具有可扩展和可配置的中央基础设施,以促进可持续增长。
人工智能和机器学习技术在人们日常生活中的应用不断成熟并变得越来越普遍。
当他们这样做时,提供这些产品和服务的企业需要战略性地思考如何最好地平衡各种业务需求并释放其技术的全部潜力以保持竞争优势。