在当今这个新技术不断进步的时代,我们都知道数据的重要性。数据是新的石油。它已成为数字生态系统中最重要的支柱之一。组织依赖于帮助实现业务目标的数据。每一枚硬币都有两个方面,每项积极的技术都会带来一些负面影响,这些负面影响会使组织在收入和声誉方面付出沉重代价。处理数据很重要。跟踪数据、理解数据并与之一起成长至关重要。但同样重要的是,了解数据、了解最合适的工具并牢记公司目标至关重要。在本文中,我们将讨论造成IT市场负面形象的5个分析和AI错误。1.因超出电子表格数据限制而遗漏病例2020年10月,负责统计新COVID-19感染的英国政府机构英国公共卫生部(PHE)透露,在9月25日至10月2日期间没有报告病例近16,000例冠状病毒病例.MicrosoftExcel中的数据限制。但是,由于Excel数据的限制,一张表中只列出了16,384列和1,048,576行。PHE以柱状格式列出,最终会丢失记录转换成的记录。即使发现数据并将报告发送给患者,技术故障也扼杀了合同的追踪工作。“故障”并没有阻止接受检测的人收到检测结果,但确实阻碍了接触者追踪工作,使NHS难以识别并通知与受感染患者有过密切接触的个人。2.AmazonAI招聘工具只推荐1到5等级的男性。该工具的缺点是训练数据集中使用的大多数男性候选人都是基于AI的工具。因此,该系统对女性申请人不利,而优先考虑男性申请人。该公司试图编辑该工具以使其中立,但最终决定无法保??证它不会学习歧视性的候选人分类方式,并终止了该项目。3.微软聊天机器人被训练来发布种族主义推文2016年,微软使用Twitter交互来训练Chatbot机器学习算法,结果证明是一场灾难。AI聊天机器人Tay是基于一个具有自然语言处理和机器学习功能的少女角色开发的,但最终发现了超过95,000条推文,这些推文表明它们是厌恶女性、种族主义和反犹太主义的。“我们为Tay的无意冒犯和无耻的推文道歉。这些推文并不代表我们是谁,”微软研究院和孵化部副总裁彼得李说。我们所代表的不是我们如何设计Tay。在活动结束后微软官方博客上的一篇文章中。机器学习和人工智能如何改变电子商务的面貌?|数据驱动...今天,这个4.医疗算法忽略黑人患者2019年,《科学》杂志的一项研究表明,保险公司和医院使用的医疗预测算法最有可能拒绝黑人患者,同时识别出高-风险关怀管理计划。该计划的动机是培训初级保健人员和护理人员监测慢性病患者,以减少严重并发症的发生率。然而,该算法建议白人患者,而黑人患者则处于高风险中。该算法包括使其能够代表此类结果的因素,包括保险、低收入、医疗保健等。研究发现,该算法使用医疗保健支出作为确定个人医疗保健需求的一个因素。但根据《科学美国人》,病情较重的黑人患者的医疗保健费用与白人的医疗保健费用相当,这意味着尽管他们的需求更大,但他们的风险评分较低。该研究的研究人员认为,可能有多种因素在起作用。首先,有色人种更有可能收入较低,这可能使他们即使有保险也不太可能获得医疗服务。隐性偏见它也可能导致对有色人种的护理质量较低。5.Target的分析程序侵犯隐私使用此算法查找怀孕的客户。结果很快就变成了一场灾难,因为关于家里一名怀孕少女的最新消息导致了可怕的结果。使用这个算法的动机是分析用户的习惯,但是结果却完全不同。与所有Target不同,与其他大型零售商一样,Target一直在通过购物者代码、信用卡、调查等方式收集有关其客户的数据。它将数据与购买的人口统计数据和第三方数据混合在一起。通过处理所有数据,Target的分析团队可以确定Target销售的大约25种产品可以一起分析以产生“怀孕预测”分数。然后,营销部门可以使用优惠券和营销信息来锁定高分客户。原文链接:https://medium.com/datadriveninvestor/5-ai-and-analytics-disasters-in-2020-efcc8848bf78)
