你相信算法吗?不管你的答案是什么,我们的生活已经被算法彻底改变了——我们聊天微信、浏览抖音、浏览淘宝,都是有无数算法支持的。算法从简单的If、then、else规则开始,变成了越来越复杂的深度神经网络,以至于连程序员都不知道内部的运行规则。它在变得复杂的同时也在彻底改变每一个行业。人离不开算法,媒体也爱算法。在一个个故事的渲染下,算法仿佛无所不能。今天,微希就带大家看看算法的一些惊艳案例-1。近年来,美国马里兰州等地出现了一种新型毒品犯罪:在豪宅内关上门,利用LED灯种植大麻。在美国,没有证据是不可能破案搜查的。警察很麻烦。然而,2010年,某派出所通过电力公司获取了当地智能电表的数据。通过对用电量和用电模式的算法分析,他们成功判断并抓获了一批毒贩!2.2017年,硅谷一位工程师想去Reddit工作。他有一个非常清晰的想法——首先他写了一篇关于如何改进Reddit推荐算法的高级文章,然后他通过RedditCEO霍夫曼在Facebook上公开了这篇文章。帐户,并找到一些独特的广告定位,例如霍夫曼的性别、年龄、居住地、他关注了哪些主页等,然后他使用Facebook的广告系统,并使用这些定位算法将他写的文章投递到197个人,他准确地击中了霍夫曼,这次促销只花了他10.6美元。最终,他的文章得到了霍夫曼的认可,顺利被录取。3.2012年7月,一位愤怒的爸爸走进美国零售巨头塔吉特弗吉尼亚分店,要求见经理,因为他还在读高中的女儿收到了一张婴儿床和婴儿服装的优惠券——“你怎么办?是什么意思?我女儿才16岁,你是在鼓励她怀孕吗? Target的经理连忙道歉,说可能是工作失误,然而2个月后,父亲打电话为之前的行为道歉——女儿确实怀孕了。原来,Target设计了一个特殊的算法系统,可以根据零售用户的购买历史来判断他们。女孩有没有怀孕,这个算法非常准确,居然比孩子爸爸先知道女孩有没有怀孕。 的确,这三个故事只是算法应用的冰山一角,算法现在可以识别我们的声音和图像,并且似乎变得无所不能。 然而,算法真的有那么美吗?算法给我们带来便利的同时,我们是否真的想过算法带来的弊端?我们是否真的想过如何面对算法可能带来的问题?灾难降临。 今天的算法实际上远非完美。很多所谓人工智能的东西,在某种意义上只能算是人工智障。超级电脑 2017年3月19日,香港地产大亨李健勤(LiKin-Kan)在迪拜一家餐厅共进午餐时,与意大利金融家拉斐尔·科斯塔(RaffaeleCosta)初次见面。Costa向Li描述了一个机器人对冲基金,其基金由奥地利AI公司42.CX开发的名为K1的超级计算机管理。K1从实时新闻和社交媒体中抓取数据,使用深度学习算法评估投资者情绪并预测美国股票期货,然后发送订单进行交易。香港地产大亨李健勤(李健勤) Li看到后非常感兴趣,在接下来的几个月里,Costa将K1的模拟结果分享给Li,数据显示K1实现了超过两位数的回报,让小李很是兴奋,将自己25亿美元的资产交给了K1打理,准备在金融市场发家致富。 然而,现实是残酷的。超级计算机K1并没有给李带来丰厚的回报。相反,到2018年2月,它经常亏损,有时甚至一天亏损超过2000万美元。李建勤终于明白了算法在金融中的重要性。市场行不通,他一怒之下起诉科斯塔,声称他夸大了超级计算机的能力。2.失控的亚马逊智能助手 2017年7月5日,德国汉堡一位名叫奥利弗的普通居民在朋友家住了一晚。凌晨1点50分,扬声器Alexa突然开始以最高音量播放摇滚音乐。沉睡的邻居被轰隆隆的喇叭吵醒,无奈的邻居最终不得不选择报警。 民警赶到现场选择撬锁破门而入,却发现罪魁祸首只是一个小型智能音箱。他们拔掉了Alexa的电源,为奥利弗安装了一把新锁,并在朋友家过夜,奥利弗对这件事一无所知。再次回到家时,一头雾水的奥利弗不得不去警察局交了换锁的账单,费用不菲。 巧合的是,2017年1月,加州CW6电视频道报道了亚马逊Echo音箱的漏洞,称Alexa无法识别家庭成员,于是加州一名5岁女孩给自己买了300多美元的饼干,当他们的父母收到货时,傻眼了,讽刺的是,主持人在播报新闻时,还说了一句示范:“Alexa,给我订一个玩具屋”,结果亚马逊后来在桑多人后不得不道歉迭戈报告说,他们的扬声器接收到电视中的声音,并实际为玩具屋下了订单。3.糟糕的微软机器人 2016年3月,微软在推特上开发了一款名为Tay的人工智能聊天机器人。world!!!”,一开始是善解人意,活泼可爱,在推特上和网友聊天很开心。 然而,仅仅12个小时,Tay就从一个友善的机器人变成了一个满口脏话、种族歧视的恶魔机器人谁说“女权主义者都该下地狱”让开发它的微软经历了一场公关噩梦。人工智能映射人类偏见的一个缩影,本质规律是它需要大量的数据来训练它——如果训练数据本身包含偏见、错误和极端想法,那么训练结果就会偏离正常结果……4、危险的沃森癌症机器人 2013年,IBM与德克萨斯大学MD安德森癌症中心合作开发了“WatsonforOncology”,即沃森的癌症机器人,其目标是识别和治愈癌症。发布会上宣称“沃森癌症机器人的使命是为了让临床医生能够从癌症中心丰富的患者和研究数据库中发现有价值的见解,”但它是如何结束的呢? 新闻机构StatNews在2018年7月查阅了IBM内部文件,发现IBM的Watson有时会给医生错误甚至是危险的癌症治疗建议,包括Watson建议医生给有严重出血症状的癌症患者服用会加重出血的药物…….. 于是在2017年2月,在花费了6200万美元之后,德州大学宣布终止这个与IBM合作的项目。算法有时对医疗行业很重要是行不通的。5.歧视性累犯算法 在美国,罪犯在出狱前都会进行累犯评估,以确定他们是否适合出狱,出狱后是否需要采取必要的监控措施. 那么如何评估一个罪犯的再犯概率呢?答案是——算法!美国司法系统使用一家名为Northpointe的公司的风险评估产品。Northpointe的核心产品是一组根据特定算法根据137个问题的答案得出的分数,其中一些问题与犯罪者本人直接相关。以前犯罪的类型、日期、频率、出生日期、性别等信息。有些是犯罪者自己回答的问题,比如“你的父母或兄弟姐妹中有没有人被送进监狱或监狱?”,“你有多少朋友吸过大麻?','你同意饥饿的人有偷窃的权利吗?'等。 值得注意的是,种族不是这些问题中的问题之一,即所有这些问题不涉及罪犯的种族。 不过,近年来有学者发现,算法给黑人带来的高再犯风险评分是白人的两倍。参与持械抢劫的白人男子被贴上“低风险”标签,结果女方并没有作案,男方却先行偷窃,这个风险评估产品目前正受到美国黑人群体的广泛质疑。6.各式各样人工智障的 其实荒谬甚至危险由算法引起的故事广泛存在。至少在现阶段,在很多领域,人工智能在某些时候只能被称为人工智障—— 美国9/11之后,反恐成为国家安全的重点。美国安全部门会根据姓名、出生地、宗教信仰、人脸识别算法以及历史行为数据——比如所有旅行数据等,将每一位航空旅客认定为恐怖分子,怀疑程度打分,有的无辜人们经常因为被怀疑是恐怖分子而在机场被拘留和检查,并且多次误机。每年有500多起这样的事件。 谷歌的安卓系统会自带一个应用——照片。这款融合了人工智能算法的应用,可以自动识别人脸、物体等,功能非常强大。然而,2015年6月,一位网友在推特上发文称:“谷歌,我的女朋友不是大猩猩”,原来GooglePhotos将女友的照片识别为大猩猩。 Facebook有一个叫做Memories的功能,可以向用户突出显示往年这个日期发生的事情,带回难忘的回忆,但Facebook仍然低估了一些极端情况,比如它会在家人去世的周年纪念日展示家人的照片,或者它可能会要求自己对已故的朋友说生日快乐。 2011年,一本关于苍蝇的生物学教科书在亚马逊上以2300万美元的价格上市。后来发现原因是两个卖家设置算法观察对方的价格,然后重新设置自己的。 2012年,《华尔街日报》报道了办公用品公司史泰博的算法歧视行为。Staples首先判断用户所在位置附近是否有很多实体店出售办公用品。大概率只能在网上购买,所以它的网店会向这些顾客展示一个高价。在这种场景下,它针对的不是一个人,而是这一片区域的一群人,即使附近的人在互相交流,也看不到交流。 中国许多城市的智能交通摄像头都配备了人工智能算法,可以检测和识别闯红灯的人。认出公交车广告上的董明珠头像是行人。 2018年3月20日凌晨,优步在美国坦佩进行自动驾驶路测时撞倒了一名名叫伊莱恩的49岁中年妇女,导致后者当场死亡。当时Elaine正走在人行横道上,碰撞前5.6秒被汽车误识别为汽车,碰撞前5.2秒误识别为其他东西,之后系统就慌了,在“汽车”和“其他”之间摇摆不定,浪费了A很多时候,所以车辆没有及时刹车,导致悲剧发生。 好吧,看到这么多“人工智能”变成“人工智障”的车祸现场,我们需要思考的是——这些匪夷所思的问题是如何产生的?看过魏熙长文的朋友应该不会陌生。魏曦通常更感兴趣的是背后更深层次的逻辑。接下来,让我们看看算法失败背后的原因。我总结为三类—— 1。算法本身或算法背后的人犯技术错误——只要算法是人写的,就一定有出错的概率,比如德国居民凌晨发疯的智能音箱,以及失控的优步自动驾驶汽车。由程序的bug引起,我们克服这种类型的方法其实比较简单。但对于另一种人工计算消费者的算法,有时我们可能就无能为力了,比如上面办公用品网站Staples的价格歧视;无论真假,此类问题往往难以识别,也增加了监管难度。 2。该算法忽略了人的部分——你可能听过这样一个笑话:美女通过最现代的人工智能设备找到男朋友,输入条件是:长得帅;有车,人工智能给出的结果是国际象棋; 这是一句玩笑话,但从某种意义上说,也说明目前的人工智能与人类情感和行为的真正理解之间,还存在着巨大的差距。本质原因是AI无法真正理解死亡对人类意味着什么。 3、算法训练数据本身的偏差——目前人工智能的基本逻辑是先建立一个合适的机器学习模型,然后用大量的数据训练模型,再用训练好的模型预测新的数据,这里有一个很重要的前提,就是输入数据的重要性。比如上面对累犯率的预测,是因为输入数据存在偏差。如果现实世界的数据本身有偏差,那么预测结果也会有偏差。. 综上所述,人工智能的大趋势必然会继续发展,但我们也需要清醒地认识到现阶段它的局限性和问题,不要夸大和夸大它的神奇,如何解决从系统的角度分析算法带来的问题。来到这些匪夷所思的问题,欢迎在留言区发表你的看法!
