从左至右:ClouderaML总经理HilaryMason、埃森哲全球AI负责人RummanChowdhury、FacebookAI研究总监YannLeCun、GoogleBrainIntelligence的联合创始人AndrewNg被认为是一项拯救世界、终结世界的技术。为了消除噪音和炒作,VentureBeat采访了通过与地球上一些最好的科技和工业公司多年合作而学会了正确的AI方法的名人。以下是GoogleBrain联合创始人AndrewNg、ClouderaML总经理、FastForwardLabs创始人HilaryMason、FacebookAIResearch创始人YannLeCun以及ResponsibleAI全球负责人RummanChowdhury博士的见解。埃森哲。我们想知道他们认为2018年的关键里程碑是什么,以及他们认为2019年会是什么。在回顾这一年和预测未来时,一些人表示他们被鼓励少听终结者AI末日场景,因为更多的人知道AI能做什么和不能做什么。但这些专家也强调,在推进人工智能的同时,该领域的计算机和数据科学家仍需要采用负责任的道德规范。RummanChowdhuryRummanChowdhury博士是埃森哲应用智能部门的常务董事,也是埃森哲负责任人工智能计划的全球负责人,并于2017年入选BBC的100位女性榜单。我有幸在2017年的Affectiva会议上与她同台波士顿去年讨论了对人工智能的信任。她经常就这个话题向世界各地的听众发表演讲。为了节省时间,她通过电子邮件发送了有关2019年AI预测的问题。本文中其他人的所有回复都在电话采访中分享。Chowdhury表示,她很高兴看到2018年公众对AI的能力和局限有了更多的了解,并发现对AI带来的威胁的讨论也更加平衡——不再局限于《终结者》对智能机器的恐惧全世界。“随之而来的是人们对隐私和安全的认识和担忧,以及人工智能在塑造我们和后代方面可能发挥的作用。”不过,Chowdhury认为,公众对AI的认知度并不是最重要的。在未来的一年里,她希望看到更多人利用教育资源来了解人工智能系统,并能够用自己的智慧来质疑人工智能做出的决定。她对人工智能生态系统中的技术公司和人们开始考虑其工作的道德影响的速度如此之快感到惊喜。但她希望AI社区更进一步,“从言辞到行动”。她提出:“在人工智能和伦理领域——除了电车问题——我希望看到人们更深入地挖掘人工智能将产生的其他问题,那些没有明确答案的问题。人工智能和物联网之间的正确平衡——相关监控在哪里?如何才能安全而不导致加剧现有种族主义的惩罚性监视状态?我们应该如何重新分配先进技术的收益,使其不会进一步扩大拥有者和未拥有者之间的差距“什么程度的接触可以使儿童成为“AI原生”而不是被操纵或同质化?如何使用AI来扩展和自动化教育,同时让创造力和独立思考蓬勃发展?”未来1在2019年,Chowdhury预计政府将对全球科技界进行更多的审查和监管。“人工智能以及全球科技巨头所掌握的力量,引发了许多关于如何监管??该行业和技术的问题,”她说.你将如何监管一个具有特定背景结果的多用途工具?你将如何建立一个不阻碍创新或有利于大公司(能够承担合规成本)而不是小初创企业的监管制度?“我们监管?我们监管的水平?国际、国家或地方?”她还预计人工智能在地缘政治事务中的作用将继续演变。“它不仅仅是一种技术,它还是经济和社会的塑造者。我们在这项技术中反思、放大和强化我们的价值观,我们的行业需要少一点天真,”她说。为此,他认为我们需要超越人工智能行业的普遍认知“如果我们不这样做,中国就会这样做,好像创造力就是力量所在。”“我希望监管机构、技术专业人士和研究人员意识到,我们的人工智能战争不仅仅是计算机能力和技术智能的较量,不再是“比冷战更像是核能力的较量,”她说。我们有难得的机会以更公正和公平的方式重建世界。但这个机会稍纵即逝,我希望我们不要错过。在消费者层面,她认为2019年将会看到AI在家庭中得到更多应用。许多人已经更习惯于使用GoogolHome和AmazonEcho等智能扬声器以及许多其他智能设备。对此,她很好奇今年的CES(消费电子展)会不会有什么特别的亮点,让人工智能进一步融入人们的日常生活。“我想我们都在等待机器人管家,”她说。AndrewNg听到AndrewNg拿着白板开会或者上网课,我忍不住笑了。也许是因为既热情又随和的人很容易被人嘲笑。吴恩达是斯坦福大学计算机科学副教授,出于多种原因在人工智能领域享有盛名。他是谷歌大脑的联合创始人,该公司旨在将人工智能引入谷歌的许多产品。他还是LandingAI的创始人,该公司帮助企业将AI集成到他们的运营中。他还在YouTube和Coursera(他也创立的公司)上教授了一些最好的机器学习课程,并创立了deeplearning.ai。并写了一本书《Deep Learning Yearning》。2017年辞去百度首席人工智能科学家一职,在任三年多时间帮助百度转型为人工智能公司。***,也是价值1.75亿美元的人工智能基金的成员,并且是自动驾驶汽车公司Drive.ai的董事会成员。本月早些时候,Ng与VentureBeat进行了交谈,当时他发布了《AITransformation Play book》,这是一篇关于释放人工智能对公司产生积极影响的简短读物。他预计2019年会取得进展或有望发生变化的一个主要领域是人工智能在科技或软件公司之外的使用。人工智能最大的发展机会不在软件行业。他援引麦肯锡的一份报告称,到2030年,人工智能将产生13万亿美元的GDP。“我认为明年[2019]将有很多关于软件行业以外的人工智能应用的故事。作为一个行业,我们在帮助谷歌、百度、Facebook和微软等公司方面做得很好——当然和我自己的不同。不再有任何关系——但即使像Square、Airbnb和Pinterest这样的公司也开始利用一些AI功能。我认为下一波大规模价值创造将是制造工厂或农业设备公司、医疗保健公司开发数十种AI解决方案来帮助您自己的业务。与Chowdhury一样,Ng对2018年公众对AI能做什么和不能做什么的理解程度感到惊讶,并感到欣慰的是对话不再仅仅围绕机器人杀戮场景或一般的AI恐惧。NgHe特意回答了我一些别人可能不会问的问题。他说:“我试图刻意提出一些我认为对实际应用非常重要的领域。我认为AI的实际应用存在障碍,我认为有几个领域可以在编写问题方面取得进展。”兴奋地指出,在未来的一年里,有望看到AI/ML领域的进步,这将有助于整个领域的发展。-称为“Few-shotlearning”。Ng说:“我认为深度学习的第一波进步主要是关于一些大公司用大量数据训练非常大的神经网络,对吧?所以如果你想开发一个语音识别系统,你需要用100,000小时的数据来训练它。想训练机器翻译系统?它必须用无限数量的平行语料句子进行训练,这导致了许多突破性的结果。当您只有1000张图像并且想尝试在其上获得结果时,我看到越来越多的小数据结果。计算机视觉的另一项进步称为“泛化”。在斯坦福大学高端X光机扫描的原始图像上训练时,计算机视觉系统可以非常有效地工作。该领域的许多先进公司和研究人员构建了比人类放射科医生更好的系统,但它们的灵活性稍差。但是如果你将训练好的模型应用到低端X射线和他们或其他医院的X射线上,一旦图像稍微模糊或者X射线技术专家将患者稍微向右移动,结果是人类放射科医生可以比今天的学习算法更好地概括这种新的背景。因此,我认为研究如何提高学习算法对新领域的泛化能力会很有趣。》YannLeCunYannLeCun是纽约大学教授,Facebook顶级人工智能科学家,也是Facebook人工智能研究院(Fair)的创始主任,该研究院创造了Pytorch1.0和Caffe2,以及许多人工智能系统,例如文本翻译人工智能智能工具Facebook每天使用数十亿次,或高级强化学习系统。Lecun认为,对FAIP开源进行抽样的研究和工具有助于推动其他大型科技公司做同样的事情,他认为这推动了整体人工智能领域的发展。LeCun上个月在NeurIPS会议和Fair成立五周年之前与VentureBeat进行了交谈,他说Fair是一家对机器学习的“技术、数学底线”感兴趣的公司,以使它们能够高效地协同工作。“当更多的人交流研究时,整个领域的发展就会更快,这实际上是一个相当大的影响,”他说。“你今天看到的人工智能进步的速度,很大程度上是因为越来越多的人比过去交流得更快、效率更高,并且做的研究更开放。”在道德方面,Lecun很高兴看到从简单地考虑工作的道德影响和偏见的转变已经在决策的危险性上取得了进展。“事实上,这被视为人们应该关注的问题about现在已经很成熟了。两三年前情况并非如此,”他说。Lecun表示,他不认为人工智能中的道德和偏见已经成为需要立即采取行动的主要问题,但他认为人们应该做好准备。“我不认为认为还有……巨大的生死攸关的问题需要紧急解决,但它们会来的,我们需要……了解它们并在它们发生之前加以预防,”他说。和NG一样,Lecun希望看到更多的AI系统能够灵活地产生不需要原始输入数据或精确输出条件的强大AI系统。研究人员已经可以通过深度学习很好地管理感知,但缺少的一点是对整体架构的理解一个完整的人工智能系统,Lecun说。教机器通过观察世界来学习需要自我监督学习,或者基于模型的强化学习,他说。“不同的人叫它不同的名字,但本质上人类婴儿和动物是如何学习世界的按外观工作研究它并找出很多关于它的背景信息,我们还不知道如何使用机器来做到这一点,但这是一个巨大的挑战。”“这个奖项本质上是人工智能和机器的真正进步常识和虚拟助手不会让人感到沮丧,你可以与之交谈,并有更广泛的话题和讨论。”至于Facebook内部有用的应用程序,Lecun表示,在自我监督学习方面取得重大进展将很重要,而人工智能需要的数据更少。以返回准确的结果。“在解决这个问题时,我们希望找到方法来减少任何给定任务所需的数据量,例如机器翻译、图像识别或类似的事情,我们已经在这个方向上取得了进展;识别薄弱的监督,或自我监管,对Facebook使用的服务产生了一些影响。所以这些事情实际上不仅是长期的,而且也是非常短期的,”他说。未来,Lecun希望看到人工智能的进步能够建立事件之间的因果关系。这不仅仅是通过观察来学习的能力,而是通过实践来理解的能力,例如,如果人们打着伞,很可能正在下雨。“这将非常重要,因为如果你想让一台机器通过观察它来学习世界模型,它必须能够知道它可以影响什么来改变世界的状态,而且有些事情你可以做,”他说。“你知道,如果你在一个房间里,面前有一张桌子,上面有一个水瓶之类的东西,你知道你可以推动水瓶让它移动,但你不能移动桌子因为它又大又重,--------这样的事情是关于因果关系的。”HilaryMason在Cloudera于2017年收购FastForwardLabs后,HilaryMason成为Cloudera的机器学习总经理。吸收了Cloudera的FastLabs仍在运行,生成应用机器学习报告并帮助客户规划未来六个月到两年。2018年让Mason感到惊讶的AI进步与多任务学习有关,它训练单个神经网络在推断时应用多个标签,例如,在图像中看到的对象。FastForwardLabs也一直在就AI系统的伦理影响向客户提供建议。梅森认为需要某种道德框架。“自从我们开始FastForward以来,这一直是事情,所以,五年前,我们一直在撰写关于道德的报告,但今年[2018]人们真的开始关注并关注,我认为明年我们将开始寻找atConsequencesoraccountabilityinthisareatocompaniesandpeoplewhodon'tattendtothisissue.“我没有说清楚的是,我希望数据科学和人工智能的实践演变成技术专家和人们的默认期望创建AI产品的商业领袖会考虑道德和偏见问题以及这些产品的开发,而不是今天每个人都默认的事情。“我认为很明显,了解整个产品和业务的人明白什么是有价值的,什么不是,谁最有能力做出他们应该投资的决定,”她说。“所以,如果你想要我的预测,我的想法是一样的,我们希望所有这些人都能够使用像电子表格这样的简单建模,我们很快就会期望他们能够确定自己的AI产品机会。”
