AI比智能更人工智能2022年6月,微软发布了MicrosoftResponsibleAIStandardv2,其目的是“为负责任的AI定义产品开发要求”。也许令人惊讶的是,该文件只提到了人工智能中的一种偏见,微软的算法开发人员需要注意的一种偏见,过度依赖人工智能的用户可能会问的问题(又名“自动歧视”)。简而言之,微软似乎更关心用户对其产品的看法,而不是它实际如何影响用户。这是很好的商业责任(不要对我们的产品说任何负面的话),但社会责任很差(有很多算法歧视对个人或个人群体产生负面影响的例子)。商业人工智能存在三大未解决的问题:隐藏的偏见会产生错误的结果;被用户或攻击者滥用的可能性;以及返回如此多误报的算法,以至于它们否定了自动化的价值。学术界关注当人工智能首次被引入网络安全产品时,它被描述为保护的银弹。人工智能的价值毋庸置疑,但随着一些错误的算法、隐藏的歧视,以及不法分子对人工智能的滥用,甚至执法和情报机构对隐私的窥探,反对人工智能的声音越来越大。据2022年6月6日的《科学美国人》报道,问题在于一门仍在发展的科学的商业化:人工智能领域最大的研究团队不在学术界,而是在公司。在学术界,同行评审为王。与大学不同,企业没有公平竞争的动力。他们没有提交新的学术论文进行学术审查,而是用新闻稿来吸引记者,并跳过同行评审过程。我们只知道企业想让我们知道的。——加里·马库斯,纽约大学心理学和神经科学教授结果,我们只听说过人工智能的积极方面,而没有听说过人工智能的消极方面。乔治敦法学院隐私与技术中心执行主任艾米丽·塔克得出了类似的结论:“从今天开始,我们的中心将停止在我们的工作中使用‘人工智能’、‘人工智能’和‘机器学习’等术语,以揭露和减轻数字技术在个人和社区生活中的危险……科技公司如此成功地将图灵测试作为获得资本的战略手段的原因之一是政府急于抓住“技术在任何地方都没有赋予监督权。这种监督权行使起来方便且相对便宜,并且可以通过规避民主决策或监督的采购过程获得。”总之,追求利润阻碍了人工智能的科学发展,面对这些担忧,我们需要扪心自问,我们是否可以相信我们产品中的AI能够输出准确的信息和公正的判断,不被滥用人、罪犯,甚至政府。AI失败#1:特斯拉自动驾驶汽车直接驶向拿着停车标志的工人,只有在司机干预时才会减速。原因是人工智能被训练来识别人类和识别停车标志,而不是识别携带停车标志的人类。案例二:2018年3月18日,Uber自动驾驶汽车撞死一名推自行车的行人。据当时的NBC报道,AI无法“将物体归类为行人,除非该物体靠近人行横道”。案例三:2020年英国新冠肺炎封城期间,通过人工智能算法判断学生的考试成绩。大约40%的学生取得的成绩远低于预期。这是因为该算法过分重视每所学校的历史表现。结果,私立学校和以前成绩优异的公立学校的学生比其他学校获得了显着的成绩优势。案例4:Tay是微软2016年在推特上推出的人工智能聊天机器人,通过模仿真人的语言,Tay旨在成为一个能听懂俚语的智能交互系统。但仅仅进行了16个小时的真人互动,Tay就被迫下线了。它在推特上说,“希特勒仇恨犹太人是对的”。案例5:候选人的选择。亚马逊希望人工智能帮助它自动选择候选人来填补职位空缺,但该算法结果是性别歧视和种族歧视,带有白人男性偏见。案例6:错误识别。在COVID-19封锁期间,一支苏格兰足球队使用基于AI的摄像头跟踪球,在线直播了一场比赛。但这套AI射门系统却不断将边裁的光头误认为是足球,射门的焦点始终在边裁身上,而不是比赛本身。案例7:申请被拒绝。2016年,一位母亲申请让昏迷半年的儿子搬进她住的公寓,但被住所中心拒绝。儿子被送往康复中心一年后,才通过律师查明原因。住房中心使用的人工智能认为儿子有入室盗窃记录,因此将其列入住房黑名单。但实际上,儿子已经卧床不起,根本无法犯罪。类似的例子还有很多,原因不外乎两种,一种是意外偏差导致的设计失败,一种是学习失败。自动驾驶汽车的案例就是学习失败。虽然随着学习周期数的增加,错误可以得到纠正,但在纠正错误之前,一旦投入使用,它们的成本可能很高。但如果你想完全规避风险,就意味着你永远无法投入使用。案例3和5是设计失败,其中意外偏差扭曲了结果。问题是开发人员是否可以在不知道自己有偏见的情况下消除偏见。AI的误用和滥用误用意味着AI被应用于开发人员无意的效果。滥用意味着故意这样做,例如污染提供给人工智能的数据。一般来说,滥用通常是人工智能产品所有者的行为,而滥用通常涉及第三方的行为,例如网络犯罪分子,导致产品以所有者不希望的方式被操纵。让我们先看看误用。领导MisusingVectraAI研究的Kazerounian认为,当人类开发的算法试图判断他人时,隐藏的偏见是不可避免的。例如,美国在信贷申请和租赁申请方面的红线和种族主义由来已久。这些歧视性政策早于基于人工智能的自动化。此外,当人工智能算法中存在偏见时,它们比人类偏见更难检测和理解。“你可能可以把深度学习模型中的矩阵运算看成分类结果。但是人们只能解释运算的机制,不能解释为什么。它只是解释了机制。我认为在更高的层次上,我们要问的是,是不是有些事情适合人工智能去做?”2022年5月11日,麻省理工学院和哈佛大学于《柳叶刀》发表的一项研究证实,人们无法理解深度学习。如何得出结论。研究发现,AI仅仅依靠X光和CT扫描等医学影像就能够识别种族,但没有人知道AI是如何做到的。事后想想,在判断病人的种族、民族、性别,甚至是否入狱方面,AI医疗系统可能远超我们的想象。哈佛医学院医学副教授、作者之一AnthonySely评论道,“仅仅因为你在你的算法中有不同群体的表现(数据的质量和有效性)并不能保证它永远是”这个问题也蔓延到了网络安全领域,2022年4月22日,微软在其产品路线图中增加了一个名为“离职分类器”的功能,该产品预计2022年9月上市。“离职分类器可以提前检测出有意离职的员工,以降低因员工离职而导致有意或无意的数据泄露风险。”当有媒体试图就人工智能与个人隐私的主题采访微软时,得到了这样的回答:“微软目前没有什么可分享的,但如果有新消息,我们会及时通知大家。”在伦理方面,必须考虑使用AI推测离职意图是否违反技术。正确使用.至少大多数人认为通过监控通信来确定某人是否正在考虑离职是正确或适当的事情,特别是如果结果可能是负面的。ver,算法中的意外偏差很难避免,甚至更难检测。既然预测一个人是否会离职,即使是人类也很难有效判断个人动机,为什么人工智能系统就不会出错呢?此外,人们在工作中以各种方式交流,假设、开玩笑、生气或谈论其他人。甚至去求职网站更新你的简历也可能只是你脑海中的一闪而过。一旦被机器学习判定为高概率离职的员工,很可能是经济衰退时第一个被解雇的人,将无法获得加薪或晋升。还有更广泛的可能性。如果企业可以拥有这项技术,那么执法和情报机构也将拥有。同样的判断错误也可能发生,其后果远比升职或加薪严重。滥用Adversa.ai的创始人兼首席执行官AlexPolyakov更关心的是通过操纵机器学习过程来滥用AI。“通过科学家进行的研究以及我们的AI红队(指扮演攻击者的角色)的真实世界评估工作已经证明,可以证明愚弄AI决策,无论是计算机视觉还是自然语言处理或其他任何东西,修改一小部分输入就足够了。”例如,“eatsshootsandleaves”这个词,只要加上不同的标点符号,就可以表示素食主义者或恐怖分子。对于人工智能来说,穷尽所有语境下所有单词的含义几乎是不可能完成的任务。而且,Polyakov已经两次证明愚弄面部识别系统是多么容易。人工智能系统第一次确信它面前的所有人都是埃隆马斯克。第二个例子是使用一个看起来明显相同的人的图像,但被人工智能解释为多个不同的人。其背后的原理,即操纵人工智能学习过程的原理,网络犯罪分子几乎可以将其应用于任何人工智能工具。归根结底,人工智能是只是人类传授的机器智能,我们离真正的人工智能还有很多年,即使我们不讨论是否可以实现真正的人工智能d.目前,人工智能应该被视为一种工具,可以自动执行许多与人类具有相似成功率和失败率的常规人工任务。当然,它比昂贵的分析师团队要快得多,成本也要低得多。最后,不管是算法偏差还是AI被滥用,所有人工智能的使用者都应该考虑这样一个问题:至少在现阶段,我们不能过分依赖人工智能的产出。
