ArCompany 的 Karen Bennet 是一位经验丰富的工程主管,致力于平台、开源和闭源系统以及人工智能技术。
作为雅虎前工程总监和红帽创始人之一,凯伦致力于推动技术革命。
他早期参与了IBM专家系统中人工智能技术的开发,现在正在见证机器的快速实验学习和深度学习。
。
他写的这篇文章将探讨人工智能的现状。
随着人工智能的应用越来越广泛,人们发现很难驾驭,而且人工智能采用的承诺在很大程度上仍未兑现。
尽管人工智能相关技术仍在不断涌现,但它们尚未成为所承诺的无处不在的力量。
查看下面令人信服的统计数据来证实人工智能技术的增长:自 2006 年以来,人工智能初创公司的数量增加了 14 倍。
自 2018 年以来,人工智能初创公司的风险资本投资增加了六倍。
自 2006 年以来,需要人工智能技能的工作比例已增加增加了4.5倍。
Statista发布的调查结果如下:截至去年,全球只有5%的企业将人工智能广泛集成到其流程和产品中,32%的企业尚未采用,22%的企业没有采用人工智能的计划。
Filip Pieniewski最近在行业媒体Venturebeat发表的文章中表示:“人工智能的冬天即将到来”。
如今,这种情况正在改变。
从表面上看,神经信息处理系统(NIPS)会议仍然挤满了人,企业新闻稿仍然充满了有关人工智能的文章,特斯拉创始人埃隆·马斯克仍然致力于开发和研究有前途的技术。
在自动驾驶汽车方面,谷歌继续推行吴恩达的路线,即人工智能产业将比电力产业规模更大。
但这种说法开始受到质疑。
人们对自动驾驶汽车很感兴趣。
但今年春天,一辆自动驾驶汽车撞死了一名行人,引发了人们对自动化系统决策背后的道德问题和怀疑。
自动驾驶汽车的问题可能会演变成关于良心、情感和感知的争论,而不是在拯救汽车乘客的生命之间进行简单的二元选择,从而使机器做出合理决策的路径变得复杂化。
凯伦的文章指出:完全自动驾驶汽车的梦想可能比人们意识到的还要遥远。
人工智能专家越来越担心,自动驾驶系统可能需要数年甚至数十年的探索才能可靠地避免事故。
Karen解释说,以史为鉴,云计算行业和网络行业用了大约5年的时间才开始对人们的工作和生活产生重大影响,而几乎用了10年的时间才出现了影响市场的重大转变。
人工智能技术也有类似的时间表。
为了让每个人都能采用,需要一种可扩展的产品,并且每个人(而不仅仅是数据科学家)都可以使用。
产品需要考虑捕获数据、准备数据、训练模型和预测的数据生命周期。
通过存储在云中的数据,数据管道可以不断提取并准备它们来训练进行预测的模型。
模型需要利用新的训练数据不断改进,从而保持模型的相关性和透明度。
这就是目标和承诺。
在没有重要用例的情况下构建人工智能概念验证凯伦目睹并与人工智能初创公司的同事讨论的是广泛的人工智能实验,涉及多个往往仍处于实验阶段的业务问题。
在房间里。
他最近发表的一篇文章证实了当今人工智能试点项目的普遍性。
文章指出,“人工智能技术供应商通常会被激励让他们的技术听起来比实际更强大,但这意味着在企业中比他们实际拥有的吸引力更大。
“大多数人工智能应用只不过是试点。
”供应商推出销售营销解决方案、医疗保健解决方案和基于人工智能的金融解决方案,只是为了吸引越来越多的人关注人工智能技术。
研究发现,在任何特定行业中,数百家销售人工智能软件和技术的供应商公司中,只有约三分之一真正拥有进行人工智能探索和研究的知识和技术。
风险投资家意识到,他们可能在一段时间内看不到投资回报。
然而,用于广泛实验的模型很少只是人工智能尚未准备好广泛使用的原因之一。
算法可以承担责任吗?人们可能听说过人工智能“黑匣子”,这是一种无法确定地做出决策的方法。
这种方法将适用于具有强制问责制的合规标准和政策的银行和大型机构。
当系统作为黑匣子运行时,只要算法的创建经过审核并且关键利益相关者满足某些标准,就可能对算法存在固有的信任。
鉴于生产算法的压倒性证据以及它们产生的意想不到的有害后果,这个概念很快就受到了质疑。
由于企业保密性差以及缺乏足够的教育和理解,很难批判性地检查投入、结果以及这些结果发生的原因。
该公司的许多简单系统都像黑匣子一样运行,超出了任何有意义的审查范围。
。
当今的人工智能行业正处于企业准备的早期阶段。
人工智能非常有用,可以用来发现和帮助解析大量数据,但仍然需要人工干预作为评估和处理数据及其结果的指导。
凯伦解释说,当今的机器学习技术可以标记数据以识别见解。
但是,如果在此过程中某些数据被错误地标记,或者没有足够的数据表示,或者存在有偏差的有问题的数据表示,则可能会出现错误的决策结果。
他还指出,当前的流程需要不断改进:目前,人工智能主要是提供决策支持,以提供有关业务结论的见解。
在人工智能发展的下一阶段,即实现数据的自动化操作,还需要解决其他问题,例如偏见、可解释性、隐私、多样性、道德和持续模型学习。
Karen 举了一个人工智能模型的例子,当暴露通过训练学到的知识的图像标题被标记为它们包含的对象时,可以看到错误。
这说明人工智能产品需要具有世界常识模型的物体和人才能真正理解。
仅接触有限数量的标记对象和训练集中有限的多样性将限制这种常识世界模型的有效性。
企业需要研究来确定模型如何处理其输入并以人类可以理解的方式得出结论。
亚马逊发布的面部识别技术 Rekognition 是目前正在生产和许可使用的技术的一个例子,但其有效性存在明显差距。
算法正义联盟创始人乔伊·布奥拉姆维尼 (Joy Buolamwini) 呼吁暂停该技术,声称该技术无效,需要更多监督,并呼吁在公开发布之前将更多政府标准纳入此类系统。
人工智能的主要障碍:心态、文化和传统传统系统转型是当今许多组织实施人工智能的最大障碍。
思维方式和文化是这些遗留系统的基石,提供了已建立的流程、价值观和业务规则的系统视图,这些规则不仅包括组织的运作方式,还包括为什么这些根深蒂固的元素会对业务产生重大影响 障碍的原因尤其是在当前良好的形势下。
因此,许多公司目前没有动力放弃基础设施。
人工智能是业务转型不可或缺的一部分,虽然这个话题像人工智能炒作一样受到一些人的怀疑,但实现重大变革所需的投资和承诺却遭到了犹豫。
有些公司愿意尝试特定的用例,但对培训、流程重新设计以及改进治理和公司政策的要求没有做好准备。
对于被迫进行这些重大投资的大型组织来说,问题不应该是投资回报,而是可持续的竞争优势。
数据完整性问题当今的人工智能需要大量数据才能产生有意义的结果,但无法利用其他应用程序的经验。
虽然 Karen 认为行业参与者正在努力克服这些限制,但在以可扩展的方式应用模型之前需要迁移学习。
然而,人工智能在某些场景中可以得到有效利用,例如从图像、语音、视频和翻译语言中揭示见解。
企业正在学习关注:(1)数据的多样性,包括跨群体的适当表示。
(2) 确保创建算法时的不同经验、观点和反思。
(3) 优先考虑数据质量而非数量 Karen c 承认这些很重要,尤其是在引入偏见和对数据的信任度降低的情况下。
例如,土耳其语是一种性别中立的语言,但谷歌翻译中的AI模型在翻译成英语时错误地预测了性别。
同样在癌症护理中,人们发现人工智能图像识别只针对皮肤白皙的人进行训练。
通过她的计算机视觉示例,Joy Buolamwini 测试了这些人工智能技术,并意识到这些技术在男性与女性之间、浅色皮肤与深色皮肤上的工作效率的差异。
“男性的错误率低至 1%,黑人女性的错误率高达 35%。
”这些问题的出现是由于未能使用不同的训练数据。
人工智能的概念很简单,但是通过摄取越来越多的现实世界数据,算法变得更加智能,然而能够解释决策却变得极其困难。
数据可能不断变化,人工智能模型需要过滤器来防止错误标记,例如黑人的图像被标记为大猩猩或熊猫的图像被标记为长臂猿。
依赖错误数据做出决策的企业将导致不明智的结果。
幸运的是,鉴于人工智能的初衷,如今很少有组织根据数据做出重大业务决策。
从人们的观察来看,大多数解决方案都专注于产品推荐和个性化营销传播。
由此产生的任何错误结论所产生的社会影响都会较小,至少目前如此。
使用数据做出业务决策并不是什么新鲜事,但发生的变化是所使用的结构化和非结构化数据的数量和组合呈指数级增长。
人工智能使人们能够持续使用来源数据并更快地获得见解。
对于具有处理来自不同来源的大量数据的能力和结构的企业来说,这是一个机会。
然而,对于其他组织来说,大量数据可能会带来风险,因为不同的来源和格式使得信息转换变得更加困难:电子邮件、系统日志、网页、客户记录、文档、幻灯片、非正式聊天、社交网络、以及图像和视频等富媒体的爆炸式增长。
数据转换仍然是开发干净数据集和高效模型的绊脚石。
偏见比人们意识到的更为普遍。
许多商业模式中都存在偏见,需要最大限度地减少风险评估并优化目标机会。
虽然它们可能会产生有利可图的业务成果,但也可能导致意想不到的后果,从而增加巨大经济差异的风险。
保险公司可以使用位置信息或信用评分数据向客户收取不同的保险费。
银行可能会拒绝信用评分较低的潜在客户,这些客户已经负债累累,但可能无法承担更高的贷款利率。
随着人工智能的采用不仅会延续现有的偏见,还会导致经济和社会鸿沟的加深,人们对偏见的警惕性也越来越高。
当前确定累犯可能性的算法存在偏差。
惩教罪犯管理分析替代制裁 (COMPAS) 由一家名为 Northpointe 的机构创建。
COMPAS 的目标是在庭审期间评估被告的犯罪风险和预后。
最初的 COMPAS 研究中使用的问题类型揭示了人类的偏见,即该系统延续了对黑人的待遇,暗示他们可能会继续犯罪,因此对他们采取比白人被告更严厉的法律,而白人被告继续犯罪量刑时再犯。
将会受到从轻处理。
由于没有公共标准,Northpointe 创建了自己的公平定义,并开发了一种无需第三方评估的算法。
如果该软件的准确性仅相当于未经培训的人进行的在线调查,那么人们会认为法院在做出决定时应该考虑公平性。
虽然人们试图修复现有系统以最大限度地减少这种偏差,但至关重要的是,模型必须在不同的数据集上进行训练,以防止未来造成损害。
考虑到潜在的商业和社会模式的潜在风险,企业没有治理机制来监督不公平或不道德的决策,这些决策会无意中影响最终消费者。
这在《道德准则》中进行了讨论。
对隐私的需求不断增长 Karen 与强大的研究和数据团队合作,这些团队能够将整个平台上的用户行为联系起来,不断研究用户行为并了解他们在音乐、主页、生活方式、新闻和许多其他属性中的行为。
数据使用没有严格的标准或规定。
隐私权属于平台条款和条件中的被动用户协议。
最近剑桥分析公司和Facebook的数据泄露丑闻引发了人们对个人数据隐私的更多关注。
Equifax 等主要信贷机构经常发生数据泄露事件。
因此,随着人工智能不断解决其问题,数据所有权、同意和错误等情境化问题使其成为一个重要的话题。
欧洲通用数据保护条例 (GDPR) 于 2020 年 5 月 25 日生效,对于组织,特别是那些收集、存储和分析个人用户信息的组织来说,这将改变游戏规则。
它将改变多年来的商业规则。
随着企业现在认识到数据的使用方式存在重大限制,个人信息的无限制使用已达到顶峰。
更重要的是,所有权将受到严格限制。
人们正在看到这对广告的影响。
预计 2020 年,价值 1 亿美元的广告行业将以 21% 的复合年增长率增长,但仍面临 Facebook Inc. 和 Google Inc. 等行业寡头的阻碍。
目前实施的 GDPR 法规使这些广告科技公司面临风险。
更大的风险和责任:风险足够高,广告商必须非常有信心他们告诉用户的内容实际上是合规的。
对于最终构成违规的内容似乎存在足够的普遍困惑,人们正在采取广泛的方法,直到可以准确理解合规性是什么。
虽然监管监督最终将侵蚀收入,但移动和广告平台行业也面临着越来越严格的审查,至少目前如此,因为它们多年来一直以消费者为目标进行货币化。
这与对既定做法的审查相结合,将迫使行业改变收集、汇总、分析和共享用户信息的方式。
实现隐私需要时间、大量投资(需要更多关注的主题)以及影响组织政策、流程和文化的思维方式的改变。
人工智能与道德不可避免的耦合人工智能确保社会效益的主要要素包括简化流程、增加便利性、改进产品和服务以及通过自动化检测潜在危害。
放弃后者意味着可以根据更新的制造流程、服务和评估解决方案、生产和产品质量轻松衡量投入/产出。
AICB Insights 中的科技公司面临道德问题 除了个人隐私问题之外,今天我们还看到了突破不合理界限的创新示例。
如前所述,谷歌决定向美国国防部提供人工智能技术来分析无人机镜头的内容,目的是在一个名为“Project Maven”的项目中创建一个复杂的系统来监控城市的每个角落。
一些员工辞职以抗议谷歌的决定。
政策制定者和监管机构需要灌输新的流程和政策,以正确评估人工智能技术的使用方式、用途以及在此过程中是否会产生意想不到的后果。
Karen 指出了在确定人工智能算法中数据的使用时需要考虑的新问题:那么如何在保留数据集的重要特征的同时检测和匿名化敏感数据字段?短期内可以使用合成数据进行训练作为替代方案吗?创建算法时,需要问自己:需要哪些数据才能提供所需的结果?此外,应该创建哪些参数来定义模型中的“公平性”,这在处理方式上意味着什么差异?如果是这样,为什么?如何在系统中持续监控这一点?人工智能冬天可能是为人工智能做准备的机会。
人工智能技术已经取得了长足的进步,但仍需要更多时间才能成熟。
在自动化程度不断提高以及有意识地努力提高认知计算能力的世界中,即将到来的人工智能冬天为企业提供了必要的时间来确定人工智能如何适应其组织以及他们想要解决的问题。
人工智能迫在眉睫的损失需要在政策、治理及其对个人和社会的影响方面得到解决。
人工智能技术在下一次工业革命中的影响将会更大,因为它在人们生活中的普遍性将变得更加微妙。
行业专家 Geoff Hinton、Fei Fei Lee 和 Andrew Ng 对人工智能的看法呼吁人工智能重置,因为深度学习尚未证明可扩展。
人工智能技术的承诺并没有减弱,但对其实际到来的期望却被推迟了,可能推迟了 5 到 10 年。
有时间通过??深度学习、其他人工智能方法以及从数据中高效提取价值的过程来解决这些问题。
为了实现商业和消费者的加速并确保适当限制技术的监管体系,必须将业务准备、监管、教育和研究达到顶峰。