近年来,社会各界对人工智能伦理问题的讨论如火如荼,刚刚结束的中国计算机大会(CNCC)分论坛也开启了“人工智能发展的道德边界》相关话题进行了讨论。一时之间,各种议论纷至沓来。每个人都充满了担忧:“机器人会抢走人类的饭碗”、“计算机系统和人类一样有偏见”……我们为什么不想想为什么机器学习或人工智能比其他技术更危险?的确,当前公众对人工智能伦理的讨论是如此重要和及时,以至于有必要继续讨论。但热心市民小新唯一的希望是,在讨论技术伦理问题时不要随意使用“人工智能”的称谓,因为有时候有些问题与人工智能无关。当前关于人工智能伦理的讨论没有抓住重点。近日,小新在世界经济论坛上看到了一篇名为《人工智能九大伦理问题》的文章。小新将根据这篇文章进行实验。(这里需要说明的是,小新对本论坛没有任何批评和讽刺的意思,而是非常喜欢。)当大众讨论人工智能的伦理问题时,所涉及的问题绝大部分不是人工智能独有的.事实上,广义上的技术存在这样的问题,并不奇怪。在这篇文章中,把它的副标题,把所有出现的“人工智能”、“机器人”、“机器”、“智能系统”和“人工”等词替换成“技术”一词,让我们看看我们能找到什么。“九大伦理问题”中,有多少是人工智能特有的?1、未来人类找不到工作会怎样?2、科技创造的财富应该如何分配?3.技术将如何影响人类的行为和交流?4、如何降低技术错误率?5、如何消除技术偏差?6、如何防止技术被用于不正当用途?7.如何防止技术带来意想不到的后果?8.人类如何控制复杂的技术?9.如何定义技术的“人权”?显然,1到8题只是广义的技术问题,当然也包括普通软件。本文之所以使用“人工智能”一词,其实是为了引起大众的阅读兴趣;这也让小新想起了地质学家常用的一种教学工具——PetRocks。如果宠物石头只是为了在课堂上玩耍,那当然是可以接受的。但是,如果地质课变成“宠物岩石心理学”,那就完全不一样了(第9题)。在一个物体上画一张脸,然后立即开始再次与它交谈。事实上,这是人类“功能障碍”的标志,因为只有一张脸并不意味着它有大脑。如果你想让人类遭受更多的不公平待遇,不断推出无效的解决方案,扰乱劳动力市场的秩序,改变人类的沟通方式,让麻烦的事情落入坏人之手,创造一个人类无法企及的世界掌握和摆脱复杂的系统根本不需要机器学习或人工智能(但请不要)。而且,如果我们要探究上述行为对人类世界的影响,我们不必诉诸于“大数据”或“神经网络”等先进概念。技术奇点?(这个观点有待考证,所以授予它星云奖未免太草率了)那么机器学习或者说人工智能有哪些独特的特点呢?的确!难道是《技术奇点》(奇点)的理论?别操之过急,别这么快就把星云奖颁给《技术奇点》了。所谓机器学习或人工智能,其实还有很多其他重要的特性,这些特性需要及时弄清楚。如图所示,这其实是“宠物石”的又一例子。模拟确实更逼真,但它只不过是一个没有生命的物体,上面画着一张人脸。AIVS机器人人工智能有什么好处?答案很简单:人工智能可以自动完成无法用语言表达的任务。换句话说,人类不再需要自己寻找问题的解决方案,而只需要使用数据中的模式。你知道这个方法有多厉害吗?这意味着人类不再需要编写各种指令,计算机可以自动完成任务。你还能要求什么?想让人工智能成为“人”?完全取代人类?技术奇点?别想太多,人工智能与这些无关。目前,人工智能被包装成“重甲”类人机器人,完全利用了公众的无知,分散了公众对真正危险的注意力。机器人只是另一种“宠物摇滚”。例如,尝试在吸尘器上贴两个大眼睛贴纸(我知道你很想这么做),效果其实是一样的。所以,如果大家还在无谓的担心,为不必要的事情担心,那我们就会忽视真正的担忧。不要被技术诗人所愚弄。神经网络不等同于人脑。现在所谓的人工智能并不是开发具有人格的人形实体来代替人类(其实这种机器人还有一个更合适的说法,即HLI类人智能)。事实上,人工智能只是一系列的编程工具,只不过它的编写方式不同,即用实例(数据)来编程,而不是用显式的指令来编程。“人工智能是一种使用示例(数据)而不是明确指令进行编程的工具。”你想知道人工智能的发展前景吗?人工智能的潜在风险是什么?仔细想想前面的引述,其实这两个问题都体现在里面了。焦点的转移假设需要自动化具有10,000个步骤的任务。如果用传统的编程方式,人类必须绞尽脑汁把指令的每一步都写出来。在传统编程中,解决方案的每一步都必须由人明确编写。因此,这个过程可以比作一个人用双手拼凑10,000块乐高积木。由于开发人员本身就没有耐心,所以他们将一些零件打包在一起,这样下次使用时就不需要重新组装了。因此,人们不再需要单独处理这万个积木,而是从网上下载制作好的安装包。这时,人们可以更专注于下一步,即继续将每个由200个小方块组成的50个组件组装在一起。如果人们对别人事先组装好的乐高组件有足够的信任,那么他们就不必费心检查每个积木的细节。因此,人们只需要将屋顶和墙壁放在一起,而不必仔细考虑砖瓦。再说了,谁有那么多空闲时间做这些杂事?(或许组装结束后,你也可以把这个用10000块搭建的大作打包,等到有人要完成100000块的搭建时,他们也可以随时复制这个安装包,大大节省了时间。不用要说,这一切都应该归功于GitHub平台)但是问题又来了:即使人们不再需要自己走每一步,但是知道,这10,000步中的每条指令都是由人类编写的千辛万苦……这就是机器学习和人工智能的区别。机器学习将人类从高度专注的状态转变为注意力不集中的状态。机器学习和人工智能工程领域有各种各样的问题需要处理,但最主要的是整合各种工具。一个项目可能需要编写10,000行代码,其中大部分代码是为了让这些笨拙的工具接受指令。随着工具的逐步完善,最终机器学习或人工智能中真正的指令将只有两条,即:1.优化目标……2.……基于数据集。就这样。今天,人类不再需要写几千行代码,只需要两条语句就可以自动完成任务。这听起来不错,但实际上很危险。人工智能将取代谁的工作?在现实生活中,有些任务非常琐碎,不需要人工,机器就可以完成。如此一来,人类的效率将得到显着提高。虽然人类自己并不知道如何去做,但他们可以在机器的帮助下高效地完成任务。正因如此,机器学习和人工智能越来越受到那些不被科幻电影场景蒙蔽的人的推崇。此后,人类将不再需要为编写数万步的解决方案而烦恼。机器学习和人工智能将能够通过从开发人员提供的示例中找出解决方案来自动生成这10,000行代码(或类似代码)。根本的区别是浓度的不同。如果你从来没有想过机器学习或人工智能会取代谁的工作,那么你最好咬紧牙关,为开发人员将自动化/加速其他人的工作做好准备。机器学习和人工智能将自动化/加速开发人员的工作。因此,以后再也不用费力地写各种指令,比如“先这个,然后这个,再这个,然后……”;现在你只需要说:“根据这些数据,得到一个最优分数。”更流行的说法是Onepoint,“这是我喜欢的东西,如果你们打字机猴子(指开发人员)得到了这个,请告诉我。”它需要大量的集成工作,因此软件工程师不必担心失去工作。唯一改变的是它们的工作方式,因为在告诉计算机如何处理指令之前,现在它需要输入数据。)不可避免的人为疏忽现在,有必要提出机器学习特有的最紧迫的问题和人工智能:不可避免的人类疏忽。当人类生死攸关时,人工智能的疏忽是一个巨大的风险。届时,机器学习和人工智能将成为“疏忽放大器”。在这一点上,虽然决策者的选择很重要,但运行该项目的人真的会像编写那5,000条指令那样仔细组织这两行吗?他们会吗?还有什么没有考虑到这一点?例子的选择机器学习和人工智能使用例子来表达他们的意图,因此需要将数据集输入到系统中。但是,如果人们不事先对这些数据进行验证和处理,什么是相关的,什么是有偏见的,什么是高质量的例子,那么后果将不堪设想。人工智能中的偏见:不恰当的例子,未经检查。目标的选择另外,人们可能会随机选择一个听起来不错但结果很糟糕的目标。例如,一位领导对他的开发人员说,“帮我阻止尽可能多的垃圾邮件”,并希望他开发一个灵敏可靠的过滤器。但是,如果同样的指令给人工智能算法,领导可能很快就会发现为什么最近没有收到新的邮件?(原来是根据给定的目标,将每封邮件都标记为垃圾邮件,才能获得最高分)傻瓜可以抛出一个目标。然而不幸的是,学习系统坚持这个目标。“心智”和“数学”这两个词非常模糊和隐晦,这可能会给人类带来更大的风险。因为小新认为,这种模糊感会让人在选择目标和实例时过于粗心和草率。归根结底,掌控一切的只是人类的思想。所谓数学被简化为一个三明治,人类的主观意识就是两片面包,而真正客观的数学只是夹在中间的一层薄薄的黄油。数学就像一个三明治,在主观之间夹着一点点客观。随着人工智能等工具越来越先进,进入门槛逐渐降低;然而,即使障碍较低,人类也不可避免地会被绊倒。技术的提升对于私人小项目来说当然是好事,但是如果一个人工智能项目的进展会影响到其他人,那么这个时候,项目经理就必须花更多的时间去管理。此时,一位伟大的领导者必须挺身而出,在一系列问题上做出明智的决定。比如,我们真的准备好迎接风险和挑战了吗?“给我一个支点,我可以举起整个地球。”——阿基米德科技——伟大的杠杆科技可以让世界过上更好的生活,开阔人类的视野,延长人类的寿命,甚至在人口爆炸的时代,科技也可以让人类丰衣足食。然而,科技也会给人类带来恐慌、动荡和迷茫。一项技术的影响力越大,它的潜在破坏性就越大。技术就像一根杠杆,可以极大地提升人的潜能。但是记住,用科技造福人类一定要小心!因为当你享受某项技术的时候,很容易影响到身边的人。在使用包括人工智能在内的技术时,最好将其视为对人类的帮助,而不是将其视为自主的个体。在享受科技带来的便利时,不要影响他人。当我们享受科技带来的便利时,很容易影响到其他人。虽然围绕AI伦理的许多问题并不是AI独有的,但AI也可以在伤口上撒盐。因此,目前关于这些问题的讨论依然有增无减。人为的疏忽会被无限放大。如果有人问我,“你害怕人工智能吗?”我真正听到的是“你害怕人为疏忽吗?”对我来说,这是问题的根源,因为我不相信科幻故事里的机器人,我也不和宠物石头说话。再见!人工智能伦理!你好!人为疏忽!回到本文开头的那九个小标题,想象一下这些标题中场景的影响范围和速度不断增加。然后,将人类的“疏忽放大器”放在那个秤上;很快,人为疏忽的后果就会被无限放大。人类应该害怕人工智能的地方不是机器人,而是人类自己。俗话说,能力越大,责任越大。然而,在当今人工智能和大数据时代,人类真的准备好迎接挑战并承担领导责任了吗?毫无疑问,人类也担心被技术反噬。问小新怕不怕人工智能?当然不是!小新热爱人工智能,作为一个乐观主义者,他对人工智能引领的未来充满期待。小新认为,在人工智能时代,每个人都会重视责任、担当和领导力的价值。届时,人类将能够构建安全、高效的系统,从而为全人类带来科技进步和美好生活。而这也是为什么小新(以及志同道合的人)一直不遗余力地与大家分享关于人工智能和互联网的各种技术知识和咨询。人类摘了低枝上的果子(即解决了简单的问题)之后,需要用人工智能来解决更难的问题。希望通过人工智能的合理运用,人类可以保护资源,甚至穿越星河,传递爱,跨越山河,让无知和疾病不再存在。技术可以很美,这取决于我们人类。小新始终相信,每一个人都是它科技之美与温暖的见证者和创造者。一个人类与人工智能合作、自然与科技共存的美好未来在呼唤着我们!
