当前位置: 首页 > 科技观察

可控人工智能有未来

时间:2023-03-14 01:02:53 科技观察

8月29日,2019世界人工智能大会在上海开幕。来自世界一些国家的著名科技公司,以及学术界和产业界的知名人士参会,为人工智能的发展提供了前景分析和建议。腾讯中国董事长兼CEO马化腾在致辞中表示,人工智能治理的紧迫性越来越高,要以“科技向善”引领人工智能全方位治理确保人工智能“可知”和“可控”。“可用”“可靠”。虽然不是所有人都认同人工智能的这些“罐头”,但这为人工智能指明了一个方向,即人工智能产品的开发和使用必须同时具备多个维度,而不是只开发一个方面。无论人工智能或其他科技产品多么新颖实用,都需要处于可控状态才能受到人们的欢迎,并在获得巨大利益的同时,预防和减少可能给人类社会带来的麻烦和灾难。这可能是世界各国在经济发展和环境保护方面所犯的错误反思后得出的经验。确保人工智能的“知、控、用、信”,也是对科技史上先研发后管理的传统思维和做法的借鉴。在科技史上,汽车的发明将人类社会带入了工业文明时代。然而,在使用汽车的过程中,人们很难控制由此引发的交通事故和伤害。安全带的发明和使用是为了控制汽车伤害。然而,故事的一个要素是直到汽车发明80年后才开发出安全带。基于这样的认识,微软提出了其人工智能发展的一个原则——每一个人工智能产品都必须经过人工智能伦理审查。人工智能的快速发展也让人类意识到,如果人工智能是可用的且不可控的,人类将付出更大的代价。因此,对每一个人工智能产品进行伦理审查和制定法规,成为人工智能研发必须同时完成的任务。2016年,微软CEO萨蒂亚·纳德拉(SatyaNadella)提出人工智能十大伦理:AI必须用来辅助人类;人工智能必须透明;人工智能必须最大限度地提高效率,同时不损害人的尊严;人工智能必须保护人类隐私;人工智能必须承担算法责任,这样人类才能消除无意的伤害;人工智能必须防止偏见。以上6条是针对AI产品提出的,但同时也提出了使用AI产品的人类应该具备的4条伦理原则,其中包括同理心,这在人类与AI共存的世界中是非常可贵的;教育,为人工智能的研发和管理提供基础;保持人类的创造力,而机器将不断丰富和提升人的创造力;判断和责任,最终要由人类来判断或诊断人工智能,或者对人工智能产生的所有结果负责。如果实施,这些原则肯定会提供对人工智能的有效控制。但实际上,由于种种原因,很多机构和开发者设计的AI产品是不可控的,因此在应用中会出现各种各样的问题。目前最大的问题是侵犯了人们的隐私,安全性难以保证,因此受到人们的批评和反对。最近的一大教训是Apple的语音助手Siri。2019年7月,有媒体报道称Siri会偷偷记录用户的私人语音,例如就诊时的医疗信息,并将其转换成语音文件,发送给苹果在不同国家的承包商。声音文件还记录了用户的位置、使用数据和通信内容。经过一番解释和反反复复,苹果于8月28日正式为Siri秘密记录与用户的通信并将文件泄露给外包商道歉。由于缺乏隐私,用户颇为诟病,如果这些条件得不到改善,苹果将失去大量用户,甚至被市场抛弃。但是,这种情况也表明,人工智能的发展最终取决于它能否被人类所控制,因为没有人类的控制,人工智能就无法进化和升级。正是在人与AI交互的情况下,AI的伦理审查和监控才有可能失败或失败,造成安全漏洞。所以,不仅要可知可用,同时要保证可控可靠,AI才会有未来。其他产品也是如此。