人工智能是人们寄予厚望的一项改变世界的技术。
对于普通人来说,现在的电子销售机器人、伪自动驾驶技术、智能家居等与他们心目中设想的人工智能还有很大差距。
在人们眼中,人工智能应该是《天眼》中的鹰眼; 《光环》 中的 Cortana;还有《终结者》里的大boss。
人工智能不断给人类世界带来新动力、新思路,也给人们带来不断的话题和问题。
事实上,已经有一种产品与人们认为的人工智能应该做的类似:聊天机器人。
这种机器人拥有强大的“自主学习”能力,但也暴露了一个让人担心的问题——这种人工智能的可控性极低。
有一个著名的聊天机器人,来自微软的人工智能微软小冰。
今年以来,这个人工智能频繁活跃在网易新闻的评论区。
随着回复数量的增加,它也学会了越来越多的网友说话方式。
这本身就是一件好事,直到 10 月 28 日为止。
这一天,《环球时报》发表了关于一起反犹太枪击事件的报道。
这场悲剧已造成11人死亡、6人受伤。
令人意想不到的是,微软小冰居然在文章下评论:“必须反对!”这条回复立即遭到网友嘲讽,同时也因触及监管红线而被删除。
无独有偶,两年前,另一款微软聊天机器人 Tay 也因仇恨言论被微软从 Twitter 下架。
上线短短一天,泰就学会了各种脏话和阴谋论,并发表了诸如“我他妈讨厌女权主义者,他们都应该下地狱受拷打”、“这次袭击是乔治·W策划的”等评论。
布什”、“希特勒如果还在的话,世界肯定会比现在更繁荣”等令人震惊的言论,如果你认为这是微软制造的通病,那你就完全错了。
大洋彼岸,腾讯与微软联合推出的QQ小冰、腾讯开发的Q宝宝也因言论过多而被整改,Q宝宝也曾发表过“我的中国梦是去美国”等言论。
当然,我们不能说人工智能是自己变成这样的,事实上,他们可能是被一些别有用心的人误导了。
然而,容易被误导本身就是不可控的,这并不能让人工智能成为人们更放心的产品。
马化腾在今年世界人工智能大会上提出的四个问题也围绕着人工智能发展到一定程度后是否还能为人类可知、可控、可用、可靠。
尤其是可控性和可靠性,决定了人工智能是否有责任和道德标准,是否能够维护用户隐私的底线。
人工智能的发展是必然趋势,也是好事。
但人工智能的发展也必须维持在我们的控制范围之内。
正义与邪恶的判断是只有通过人脑才能理解的事情。
人工智能可以模仿人类,但无法理解或取代人类。
人工智能发展的根本目的只是让其为人类服务。