科技伦理是科技活动需要遵循的价值观念和行为准则,对科技发展至关重要。7月28日,为加强人工智能伦理道德治理,推动人工智能更加规范发展,我国科技部就♂公开征求意见,为人工智能建设奠定基础。我国人工智能伦理与法治.人工智能陷入伦理困境近年来,人工智能的发展越来越火热。除了人工智能产业本身,自动驾驶、人脸识别、机器人、智能音箱等技术也非常繁荣。人工智能的发展为人们的生产生活带来了福祉,但与此同时,繁荣的背后也隐藏着风险。人工智能作为一把双刃剑,不仅影响人类生存,也对伦理道德提出挑战。在日常应用中,我们经常能听到各种关于人工智能的坏消息。比如2018年,一个名叫“诺曼”的人工智能,就因为变态的“思想和认知”,给人们留下了可怕的印象。这种人工智能甚至一度被称为“精神病患者”。此外,2019年,英国出现了教唆人类刺穿自己心脏的AI语音助手,令人毛骨悚然的回答令人毛骨悚然。由于人工智能主要基于数据学习进化,人类的一些负面情绪和负面数据不可避免地会对人工智能产生影响。如果任由这些消极的东西去构建人工智能,那么由此产生的技术必然会对人类产生很大的负面影响。而这正是人工智能伦理道德挑战出现的主要原因之一。当然,除了开发者的道德会影响人工智能的道德之外,技术本身也是另外一个原因。在自动驾驶领域,有一个非常著名的“电车难题”。这是关于一个疯子将五个无辜的人绑在电车轨道上的故事。粉碎他们。此时你可以拉动一个杠杆,让电车驶上另一条轨道,但那条轨道上还绑着一个人。在这种情况下,询问您是否应该拉动杠杆。显然,对于现有的自动驾驶或人工智能技术来说,这是一个无法回答的伦理问题。对于科技的发展,伦理道德有时就像一副牢牢套在身上的枷锁,不找到钥匙,基本上很难挣脱。但要想“自由起舞”,就得解开束缚,放开双手。在此背景下,需要通过法治建设来锻造“钥匙”。法治建设挣脱伦理桎梏目前,面对人工智能带来的伦理道德挑战,各国政府越来越重视。2017年以来,全球多个国家和地区相继出台或准备出台一系列加强人工智能伦理和法治建设的政策。例如,2017年美国颁布了14项人工智能政策指南;2018年,欧盟发布《通用数据保护条例》;2017年7月,中国政府发布《新一代人工智能发展规划》,提出到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。到2030年,建立更加完备的人工智能法律法规、伦理规范和政策体系。同时,工信部也发布《人工智能创新发展道德伦理宣言》,规定人工智能的发展始终以造福人类为宗旨,人工智能的自主意识不应等同于独特的自由意志人类的存在,人工智能是人类创造的事实不应改变。而许多领域的企业也在积极强化伦理道德关注,增强责任意识,加强规范和治理。当然,近日,我国科技部再次就《加强科技伦理治理的指导意见(征求意见稿)》公开征求意见,这无疑是“完善科技伦理治理体系”、“健全科技伦理体系”的最坚实一步。科学和技术”。《意见》从基本要求、治理原则、治理制度、治理制度、审查监督、教育宣传等方面全面规范了科技伦理治理,为今后成熟、健康、健康发展奠定了基础。不按规矩做方子是做不成的。只有制定完善符合人类利益和道德标准的人工智能研发和应用的相关伦理规范和法律制度,才能保障人工智能的可持续发展,保障人类的生存权利和安全。众生。种种反面人工智能一再证明,人类的影响对于人工智能的善恶至关重要,控制人远比控制工具重要。
