当前位置: 首页 > 科技赋能

2016年特斯拉车祸榜单AI犯下的十大错误上榜

时间:2024-05-22 14:15:35 科技赋能

智动西(公众号:zhidxcom)编辑|海中天简介:虽然人工智能在2016年取得了长足的进步,但仍然存在一些滥用、误用的现象,甚至暴露出一些严重的问题。

特斯拉的车祸表明系统并不完善,利用AI预测犯罪可能与种族歧视高度相关……这些问题我们应该警惕。

去年,人工智能开始复苏。

无人驾驶技术不断进步,语音识别不断进步,人工智能在围棋中大显身手。

所有这些都表明,机器已经相当强大了。

人工智能在取得成功的同时,我们也应该关注它所犯的错误以及何时犯错误,以避免未来产生负面后果。

近日,路易斯维尔大学网络安全实验室主任罗曼·亚姆波尔斯基(Roman Yampolskiy)发布了一份报告,列出了人工智能历史上出现的一些错误。

他认为,错误是人工智能系统在学习阶段和执行阶段犯的。

TechRepublic整理了今年AI行业犯下的十大错误。

其中一些错误来自Roman Yampolskiy的报告,也参考了其他人工智能专家的意见。

1. 使用人工智能预测未来犯罪 Northpointe 开发了一种人工智能系统,可以预测被告犯罪分子再次犯罪的概率。

这套算法因可能存在种族歧视而被批评。

与其他种族相比,黑人未来犯罪的可能性更大,更具威胁性。

有媒体还指出,无论种族如何,Northpointe软件在正常情况下都无法准确预测。

2. 在电子游戏中,非玩家控制的角色制造的武器超出了创作者的设计范围。

今年6月,AI电子游戏《Elite: Dangerous 》发生了一些奇怪的事情,超出了创作者的预期:AI可以制造超级武器,它的攻击范围并不属于游戏的设计范围。

游戏网站评论道:“玩家可能会被拖入与配备超大型武器的敌方战舰的战斗,这些武器可以将其瞬间切成碎片。

”后来游戏开发者删除了这些强大的武器。

3.机器人受伤的孩子。

Knightscope 生产了一种所谓的“打击犯罪机器人”。

今年7月,机器人在硅谷一家商场撞向一名儿童,导致一名16个月大的儿童受伤。

《洛杉矶时报》该公司被引述称这是一次“离奇事故”。

4、特斯拉Autopilot导致车主死亡。

当约书亚·布朗激活自动驾驶功能时,他正在路上驾驶一辆特斯拉汽车。

结果,该车在佛罗里达高速公路上与一辆带有拖车的卡车相撞。

这是Autopilot首次导致车主死亡。

事故发生后,特斯拉升级了Autopilot,马斯克声称该软件应该可以避免碰撞。

自动驾驶在中国也造成了人员伤亡,尽管事故与AI系统没有直接关系。

5. 微软的聊天机器人 Tay 发表种族主义、性别歧视言论并侮辱同性恋。

微软曾在Twitter上推出聊天机器人Tay.ai,初衷是与年轻用户建立联系。

泰是以一个十几岁的女孩为原型设计的,但她却变成了崇拜希特勒、批评女权主义的恶魔;上线仅一天后。

微软将 Tay 从社交媒体平台上删除,并表示将调整其算法。

AI选出选美优胜者 6. AI成为选美评委,造成种族歧视。

在首届由人工智能评判的国际选美比赛中,机器人团队对参赛者的脸部进行评判,算法可以准确评估各种标准。

这些标准与人类对美丽和健康的看法息息相关。

由于AI没有经历过多样性训练,最终比赛选出的获胜者全部是白人。

“美成为一种模式识别器,”Yampolskiy 评论道。

7. 《口袋妖怪Go》 让玩家留在白人社区 7 月,《口袋妖怪Go》 迅速走红,一些用户注意到在以黑人为主的社区缺乏玩该游戏的地方。

Mint 首席数据官 Anu Tewary 认为,出现这种情况主要是因为算法制定者没有接受过多样化的培训,也没有在这些社区投入时间。

8、谷歌AI系统AlphaGo在围棋比赛第四局输给了李世石。

今年3月,AlphaGo以5回合击败李世石。

他曾18次成为围棋世界冠军。

虽然AI算法赢得了对决,但李世石在接下来的比赛中获胜意味着AI算法仍然不完美。

新南威尔士大学人工智能教授托比·沃尔什认为:“李世石似乎发现了蒙特卡罗树搜索(MCTS)的弱点。

”虽然这种失败可以被视为AI的缺陷,但Yampolskiy认为这种错误是在允许的范围内的。

9.中国的面部识别研究可以预测犯罪,但存在种族歧视。

上海交通大学的两名研究人员发布了一份名为《使用面部图像自动犯罪推理》的报告。

据《镜报》报道,研究人员将个人面部图像(其中一半是暴力犯罪分子的面部图像)输入计算机,然后进行分析。

研究人员得出结论,在预测犯罪时可以识别一些结构特征,例如嘴唇曲率、眼角距离、口鼻角度等。

业内人士对这一结果提出质疑,并表示该研究会造成伦理冲突。

10、保险公司利用Facebook数据来预测出现问题的概率英国最大的保险公司Admiral Insurance利用Facebook用户发布的帖子来寻找用户使用社交媒体与他们是否成为优秀司机之间的关系。

这个实验不是人工智能的错误,只是人工智能的误用。

新南威尔士大学人工智能教授托比·沃尔什认为,Facebook 禁止该项目值得赞扬。

这个名为“firstcarquote”的项目未能启动,因为 Facebook 禁止公司访问数据。

从这些案例可以看出,AI很容易走向极端。

使用多样化的数据来训练机器学习算法可以有效防止偏差。

随着人工智能变得越来越强大,确保研究项目得到有效检查、使用不同数据进行培训并符合道德规范将变得至关重要。