近日,某品牌汽车在样车试车时发生事故,造成大量人员和财产损失,立即登上新闻头条。与此同时,还有一个老生常谈的自动驾驶问题引起了公众的关注。自动驾驶安全吗?自动驾驶该不该放开?在自动驾驶的外壳下,人工智能能否以道德判断为核心的问题也很难定论。“电车困境”人工智能面临道德困境。美国麻省理工学院设计了一个名为道德机器的网站。该网站设计了各种汽车失控场景,让浏览者做出选择。通过收集300万用户的反馈,MoralMachine发现,人们更倾向于让自动驾驶汽车自毁来保护更多的生命,但又希望自己的车没有这个功能。这一结论与文化习俗无关,是人类的共同选择,符合社会普遍认知。人们希望牺牲少数人的生命来换取更多的生命。但这是违法的,因为人的生命本身是无法比较和量化的。这是自动驾驶无法回避的道德问题。一方面,如果允许AI做出失控的决策,按照权责合一的规定,意味着AI或者其背后的自动驾驶公司要对决策行为负责。另一方面,如果不允许人工智能做出决定,它就不能被称为自主——因为自动驾驶汽车的定义是一种无需人类操作员即可感知其环境并自行导航的汽车.自动驾驶遇到的“电车问题”只是人工智能行业遭遇困境的一个缩影。虽然随着技术的进步和大数据产业的发展,人工智能模型已经日趋成熟,但在涉及到道德、意识等人类问题时却陷入了尴尬境地:根据“奇点”人工智能理论认为,人工智能终将在理性和感性方面超越人类,但人类在人工智能的安全问题上一直有着“科学怪人情结”。一般来说,人类在心理上无法接受对非生物机器的共情。今年6月初,Google于2021年推出的对话应用语言模型LaMDA被其领导者之一工程师Lemoy透露为“有意识”。他认为,LaMDA模型是一个具有自我意识的“人”,可以感知世界,具有七八岁儿童的智力。Lemoy表示,LaMDA模特不仅将自己视为一个人,而且还为自己作为一个人的权利而奋斗并积极捍卫。事件爆发后,不少网友力挺Lemoy,认为人工智能的奇点已经到来,认为人工智能已经有了意识和灵魂,可以像人一样独立思考。价值判断人工智能的雷区人工智能有道德吗,即人工智能是否应该有价值判断?如果人工智能被认为是道德的,那就意味着人工智能可以摆脱人类意志的支配,独立评价事件或事物。这在技术层面上并不难实现。通过大量数据的“繁殖”,人工智能可以将事件或事物数字化,并根据深度学习形成的一套“判断标准”进行衡量。上面的LaMDA模型也是如此。但实际上,LaMDA模型只是一台答录机。著名的机器学习和神经网络专家GaryMarcus表示:“LaMDA只是从人类语料库中提取单词,然后匹配你的问题。”从这个角度来看,所谓的人工智能“道德”只是对事件或事物的反应,并没有深刻理解什么是道德评价以及道德评价的意义。再比如,不同的人工智能模型,对于同一种情况的处理方式是不同的。还是以自动驾驶为例,以同样的方式冲向同一个桶,结果是截然不同的。有的直接碰撞,有的则是闪躲。这能上升到道德高度吗?显然不是,这两种模型之间没有区别,因为基于不同的理念和需求设计的模型具有特殊性。前者认为这种情况属于司机操作范畴,不需要干预;而后者认为它应该参与其中。退一步说,假设人工智能具有类人的意识,可以独立思考,是不是就可以寄希望于解决道德问题呢?答案是否定的。简单地说,人类无法自行解决的道德问题,没有“人性”的概念,就不能指望用数字来解决。从这个角度看,人工智能价值判断的发展不存在道德问题。更重要的是分析为什么需要进行道德评价。道德评价的本质是得出一个结果并指导后续的行动。记者认为,在人工智能的归属上,应该将人工智能分为决策系统和执行系统,并针对相应的系统引入“责任人”制度。从决策的角度来看,虽然从法律的角度来看,惩罚行为并不惩罚思想,它只针对自然人。但是,目前人工智能的“思想”可以用数据的形式表达,所以从决策的角度来说,人工智能还是需要被控制的。人工智能的“思想”存在错误,其原因在于训练算法的数据存在问题,即人工智能学习了社会存在的问题并加以应用。例如,美国电商品牌亚马逊在招聘员工时,使用人工智能算法对求职者的简历进行初步筛选,结果更倾向于男性,因为工程师在训练算法时,使用的是曾经被聘用过的员工。之前受雇于亚马逊。恢复培训,亚马逊有更多的男性员工。结果是,这样的算法让亚马逊的简历筛选算法更倾向于男性,导致算法出现“性别歧视”。记者认为,如果法律结果是算法和训练数据造成的,则应该追究算法设计或训练责任方的责任。从行为的角度来看,即使人工智能在行为执行力上可以匹敌甚至超越人类,但在法律层面,人工智能仍然被视为物,而不是权利和能力的主体。这意味着现行法律否认人工智能可以独立承担法律责任,本质上是因为人工智能不能对其实施的行为负责。“负责人”制度的建立类似于法人组织的法定代表人制度。自然人承担由此行为产生的责任。“思考”与“行动”的区分在归属上可以更加细化,在确保责任有效的同时,不影响人工智能产业发展的积极性。在目前的民事领域,产品责任适用于人工智能产品的侵权行为,强调开发者、生产者和销售者的责任。***近年来,我国陆续出台《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,明确提出八项原则,强调将伦理道德融入人工智能全生命周期,从源头上维护人工智能产业健康发展。有原则的观点。相关人士称,国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险名单,以更好地推进人工智能科研活动的伦理监督。相信随着更多法律法规的出台,人工智能应用的伦理问题会得到很大缓解。Tips人工智能有哪些梗?电车问题:“电车问题(TrolleyProblem)”是伦理学领域最著名的思想实验之一。它最早是由哲学家PhilippaFoot在他1967年发表的论文中提出的。大致内容是假设5个人绑在一条电车轨道上,1个人绑在一条备用轨道上,以及一辆失控的电车正在高速逼近。而且旁边有个操纵杆,你可以推动操纵杆,让电车开到备用轨道,杀1人,救5人;你也可以什么都不做,杀5个人,救1个人。这种伦理和道德困境被称为“电车问题”。人工智能“奇点”理论:最早将“奇点”引入人工智能领域的是美国未来学家雷·库兹韦尔。在他的两本书《奇点临近》《人工智能的未来》中,他将两者结合起来,用“奇点”来比喻人工智能能力超越人类的某个时空阶段。而当人工智能跨过这个“奇点”,我们习以为常的所有传统、理解、观念、常识都将不复存在,科技的加速发展将导致“失控效应”,人工智能将超越人类智能的潜能和潜能。控制着、迅速改变着人类文明。弗兰肯斯坦情结:起源于小说家阿西莫夫,指的是人类害怕机器的心理状态。1818年玛丽·雪莱的小说《弗兰肯斯坦——现代普罗米修斯的故事》的主人公弗兰肯斯坦创造了一个人形生物,但他也被它吃掉了。“弗兰肯斯坦”现在用来指代人类制造的怪物。在当下的文学、电影等作品中,“弗兰肯斯坦情结”往往暗示人工智能征服人类,开始管理世界。记者徐勇实习生杨成林
