【.com速译】虽然今天说的大部分事故与AI本身没有直接关系,但或多或??少都有AI的因素在里面。随着AI技术的不断进步,我们必须对代表我们判断方式的算法充满信心,因为在未来的实际应用中,算法可能需要对复杂的变量进行决策,甚至判断人的生命财产是否安全无忧。下面,我们将关注历史上出现过的几个AI失败案例。Tay——微软的聊天机器人在过去的一年里,公认的AI失败案例之一是MicrosoftTay:“微软技术研究部和Bing团队联合开发的聊天机器人旨在试验理解对话内容的能力。Tay通过轻松愉快的对话接触人类用户。Tay聊天的次数越多,他就会变得越聪明,并为您提供更加个性化的体验。”Tay是我们研究团队的一员,在NaturalLanguageUnderstanding(NLU领域的一次尝试)。它的学习算法负责阅读、解释和适应用户提供的书面内容。其目标是以个性化的方式实现人机交互,这也是众多科技巨头希望实现的关键战略提升。类似于电影《她》中的假设,微软希望赋予Tay类似人类的交流能力。在技??术领域,商业成功通常通过三种途径实现:获取、参与和转换。可见,微软的想法是提供完整的个性化体验,确保能够通过严格的图灵测试,重新定义我们的参与方式。然而,在Tay开始与人类聊天后的24小时内,她就被“教坏了”,变成了一个反犹太、性别歧视和种族歧视的“坏女孩”。Alexa向儿童错误提供色情内容一段相关视频显示,一名儿童用户要求Alexa“玩‘淘金’”,但Alexa的回应是“你想听色情内容……辣妹和素人美女……”(注:挖金游戏一词与卖淫女同义。)虽然有人认为问题不在AI,而在语音命令。这种说法有一定的道理,但可以肯定的是,Alexa本身应该具备通过机器学习来区分上下文的能力。Inspirobot提供可笑的建议InspiroBot旨在提供用户感兴趣的日常格言。然而,具有讽刺意味的是,它常常无法传达可以让我们的一天变得美好的积极声明——甚至会以黑色幽默让人们失望。为什么失败了?答案可以概括为三个方面——准确性、背景和培训。精准的人工智能技术几乎可以在任何行业带来实实在在的成果。然而,Tay的失败主要在于它相对于反欺诈或其他一些更有针对性的场景而言缺乏准确性。除了语法正确的交互能力之外,聊天机器人还需要提供除明确定义的参数之外的响应。由于实际用户提供的响应与Tay在实验中接触到的词汇和语法不同,因此很难提供一致且准确的交互结果。上下文对于这里提到的三个AI案例,以及其他各种AI解决方案,上下文感知仍然是一个严峻的挑战。具体而言,如果您与Tay聊天,向Alexa寻求建议,或向InspiroBot寻求激励,那么用户的时间、地点、情绪、天气、身份、职位等因素都会影响您对所提供结果的解释和评价。Tay显然未能完全理解对话中的情况,因为它的训练和交互未能考虑到多种情境因素。虽然能够识别单词并建立某种程度上一致的反应,但他们无法理解它们在特定上下文中的含义和重要性。同样,InspiroBot也失败了。尽管它努力提供丰富而笼统的建议,但它缺乏对相关内容的理解、对意义的把握以及对潜在解释的认识。你可能听过培训,“进来的是垃圾,出去的只能是垃圾”。Tay不是在内部受控环境中进行培训,而是向世界发布并通过与公众互动来学习。然而,在24小时内,精通技术的社区(尤其是4chan和8chan)显然认为向学习算法提供有问题的内容会更有趣。毋庸置疑,他们成功地摧毁了人工智能领域的未成年人Tay。当谈到Alexa时,情况就不同了。使用语音命令触发适当的响应并训练以理解词汇、语法、音高、语调、节奏、重音和发音模式的含义。然而,这种考虑太多因素的方法会迅速扩大误差范围并最终导致失败。通过进一步的训练,Alexa应该能够学习如何识别孩子的声音,并在必要时提示家长控制。此外,InspiroBot可以尝试更少的单词、句子模板和经过验证的积极词汇,从而更容易表达真正激励人心的表达方式。然而,这种做法本身就与AI的设计目标相冲突——大量参数过滤机制的存在不利于机器学习的发展。拥抱失败失败是成功之母,我们也应该以宽容的态度去接受上述AI失败案例。其实,对于真正相信和期待AI技术成功的朋友们,大家应该分享、讨论、分析并尝试解决这些失败的问题。您对哪些现有的AI解决方案感到失望?欢迎在评论中聊天。【翻译稿件,合作网站转载请注明原译者和出处.com】
