当前位置: 首页 > 科技观察

揭秘谷歌大脑:专注于纠正算法错误-解决AI偏见

时间:2023-03-17 21:02:43 科技观察

腾讯科技讯1月29日消息,据外媒报道,用谷歌CEO桑达尔·皮查伊的话来说,对于那些负责推进“竞争的杰夫·迪恩(JeffDean)对于从事比电或火更深奥的人工智能(AI)技术的人来说,Dean是一个非常冷静的人。作为这家科技巨头的AI负责人,Dean负责监督对Google的未来至关重要的一个部门。即使在狂热的在今年达沃斯世界经济论坛的气氛中,迪恩仍在沉思。显然,如此艰巨的任务并没有打扰他。谷歌人工智能负责人杰夫迪恩表示,迪恩在谷歌早期的使命“几乎可以肯定”帮助应对威胁来自外太空。太空射线回到世纪之交,谷歌的搜索引擎开始出现故障,其程序员对原因感到困惑。这是迪恩和他的密友SanjayGh诊断外层空间问题的emawat。迪恩解释说,谷歌的搜索服务运行在廉价硬件上,“它们就像捆绑电线和口香糖一样”,因此它很容易受到“极低概率事件”的影响。“来自外太空的某些射线会进入地球并撞击存储设备中的存储单元,将0或1翻转为1或0,”Dean说。“如果有人正在处理大量数据,这尤其糟糕,因为突然之间,数据中的一些随机位会被翻转和损坏。”他补充说:“今天的大多数机器都有针对类似问题的硬件保护。然而,谷歌早期的机器并没有真正做到这一点。”然而近年来,谷歌的黑客机器吸引了迪恩的全部注意力,该公司大胆命名为“大脑团队”也是如此。团队的使命是“让机器变得智能,改善人们的生活”。即使谷歌目前的AI应用程序比较平淡无奇,但其使命让人感觉雄心勃勃。机器学习使谷歌用户能够通过搜索照片中出现的对象(例如,通过键入Cake或Cat)来检索照片,机器学习也是开发将音频转换为多种语言文本的语音识别工具的基础.谷歌的翻译工具是其人工智能团队的又一成功,同时也提供了算法如何“从现实世界中学习,而不是从我们想要的世界中学习”的早期例子。FightingBiasDean解释说,当算法输入大量文本时,它会自学如何识别通常组合的单词。“例如,你可能知道算法经常将医生与‘他’联系在一起而不是‘她’,而护士更多地与‘她’联系而不是‘他’相关。但你也知道外科医生与手术刀和木匠有关与锤子有关。所以这些算法的美妙之处在于它们可以学习这些类型的模式和相关性。”Dean表示,这项任务是关于弄清楚你想让算法拾取什么样的偏见,他的团队和AI领域的许多其他人都在试图弄清楚这背后的科学原理。“很难说我们是否会找到完美的无偏算法,”Dean说。职业社交网站LinkedIn创始人AllenBlue的公司努力解决这些问题的一个令人惊讶的例子是ProfessionalNetworking。网站领英。当它的5.62亿用户登录他们的帐户时,他们会得到关于工作和联系人的独特建议,所有这些都是由AI提供支持的。此外,使用LinkedIn的招聘人员会收到一份经过机器学习筛选的理想候选人候选名单。但LinkedIn联合创始人艾伦布鲁很快发现了这个过程中的一个问题:女性在候选名单上的排名不够靠前。“我们所能做的就是说,‘好吧,我们要修正这个算法,让它以相等的比例筛选真正符合搜索条件的男性和女性候选人,并对他们进行排名,以确保这些女性不会意外离开了。”更多多样性但Blu承认,解决问题只是AI的冰山一角。他解释说:“我们刚刚了解如何以最好的意图构建机器学习算法,但仍然会不经意地在结果中引入偏差。”Blu最喜欢引用的一个例子是面部识别技术。“面部识别应用程序的第一个版本是根据名人的照片进行训练的,这些名人大多是白人和男性,这意味着白人男性可以以97%的准确率识别面部,而非洲女性的准确率仅为3%,”他说。%。他认为,如果不增加构建AI算法的人员的多样性,就没有补救办法。面部识别的早期尝试遇到了偏见问题。“当我们查看LinkedIn上实际拥有AI技能的人时,只有22%是女性。更糟糕的是,他补充说:“女性的角色往往更注重研究,或更注重教学,而男性的角色往往更倾向于领导。”每个人都有偏见,但我们不完全理解人们如何设计人工智能,如果Bleu承认,女性对此无能为力。尽管有这些警告,但当谈到人工智能的潜在积极影响时,Blue和Dean都表现出热情。在招聘过程中,Blue认为计算机甚至可以教我们如何消除人类的缺点。洪水“当你走进去与某人面对面交谈时,你会得到很好的情绪解读,或者从他们身上获得能量等等,这是基于你的个性,所以对什么有偏见做一个好员工。AI可以帮助您将良好的感觉与偏见的观点区分开来,这就是我所说的纯机器与人类协作的意思。对迪恩来说,谷歌的人工智能团队在世界各地的人道主义问题上所做的工作,例如可以预测洪水和地震余震的系统,是他们最引以为豪的成就。这个热点问题特别关注医疗保健和生物科学,它帮助开发了一种工具,该工具可以在没有眼科医生干预的情况下根据视网膜图像诊断称为糖尿病性视网膜病变的病症。Dean在世界经济论坛上谈到人工智能的这些进步时,Purpose一直受到赞扬。在论坛上,许多会议都集中在数据隐私和技术监管方面。在谷歌的案例中,迪恩认为公司的内部原则将有助于防止潜在的人工智能问题滥用,并透露他的团队“当然决定不公布我们认为可能产生负面影响的某些结果。”但Dean表示,防止滥用机器学习的方法是吸引合适的人在该领域工作。他说:“我们需要更多的人研究这些领域,更多的人对这些领域感到兴奋,因为这就是我们取得进步并解决许多社会问题的方式。”(腾讯科技/金鹿评)