当前位置: 首页 > 科技观察

当AI拥有“自由意志”_0

时间:2023-03-15 19:04:21 科技观察

当人工智能呈现出欣欣向荣的景象时,这项技术的问题和潜在威胁也随之显现。是时候认真审视AI技术的“价值”了。想必很多人最近都注意到了,关于AI的负面新闻频频登上头条,而且还带有浓浓的魔幻色彩。11月20日,韩国13岁围棋天才少女金恩智承认,她在9月底的一场网络围棋比赛中作弊,使用了AI推荐的对局记录,相当于毁了她的事业。11月27日,伊朗核武器专家法赫里扎被AI控制的自动机枪袭击身亡,这意味着精准的人脸识别技术作为AI武器参与了人类的杀戮。回到国内,前段时间有人戴着头盔去售楼处看房,就是为了避免被房地产商通过精准的人脸识别“宰”为“熟客”。人脸识别的滥用问题之前就已经放在我们的脑海里了。更荒唐的是,近日有房产中介被曝利用政府机关线上服务流程,轻而易举地让售房者在不知情的情况下,通过人脸识别系统将房屋过户给购房者,并自行取出.交易支付。原本为百姓提供便利的AI服务,却成了别有用心者的帮凶。“杀人的是人,不是刀”,这是我们捍卫“工具没有道德价值”的古老理由,也是人类确认自己具有独特道德价值的狂妄说辞。同样的道理似乎也能解释上述AI的负面案例。可以说,这里的AI技术只是人类应用的工具,真正的始作俑者还是人类。这样说似乎可以理解,正如所有技术的发明给人类带来了巨大的利益,但也可能带来可能的灾难,反之亦然。比如诺贝尔发明的炸药,既可以用来开矿山,也可以投入战场杀人。核技术可以用来制造原子弹毁灭世界,也可以用来建造核电站造福大众。理性乐观主义者始终相信,人类可以通过技术进步创造一个勇敢的新世界,克服技术带来的负面影响。不过,需要我们注意的是,这一次人工智能技术革命的不同之处在于,它会真正重塑人类。以往的任何技术革命,都只是增强了人类在体力和脑力方面的特殊能力,而这次人工智能将直达人类的核心本质——所谓支撑人的尊严的“自由意志”和价值。大多数人将这种浮夸的担忧视为无稽之谈,因为“狼来了”的故事已经听过太多遍了。许多大人物关于人工智能对人类地位威胁的警告也有“讲诚信”的意思,都在推动人工智能技术在各自领域的演进和运用。然而,作为人类社会基石的“自由意志”本身却受到来自脑神经科学和社会学等方面的严重挑战,人工智能模拟和指导人类决策的能力得到极大提升,因此我们将接近这个改变人类命运的时代。交集:人类的自由被简化为一种可计算的生理机制,AI的计算能力超过了人类。这个时候,我们就像温水里的青蛙,只能黯然接受被“煮熟”的命运。幸运的是,当人工智能技术逐渐暴露出这些无伤大雅的问题时,我们还是要对人工智能保持警惕。也就是说,当人工智能有了“自由意志”的时候,它能做到价值中立吗?技术的价值中立性很难建立,人工智能也是如此。》的观点。我们通常认为,一项技术的道德价值在于使用它的人。例如,决定一把刀是用来做饭还是用来杀人的关键在于持刀人的想法刀;不在于刀本身,而在于使用它的人的用途。魔鬼。这个可乐瓶的价值在土著人手中发生了翻天覆地的变化。这种假设的好处是它维护了人类的尊严。我们选择什么样的技术,用什么样的东西是我们自己的选择,我们要为最后的后果负责。但真的是这样吗?从第一批人类掌握最起码的生火和放火技术开始,一个部落的女人就可以释放出数万倍的能量她的体力th,因为一场火如果能烧掉一大片森林,他们就可以收割这片土地上来不及逃生的生灵的肉,还可以开垦出一片又一片的农田。想一想今天的亚马逊雨林,在全球消费贸易网络中,为了这种粮食作物,巴西农民几乎将其烧毁。火本身是没有目的的,但是用火的人知道火的特性和威力,能够控制火的范围和用途。人火与自然火的区别在于火本身已经包含了人的意志和目的。可以想象,人类发明的任何工具或技术,或多或少都包含着发明者本人的目的。一把锋利的石刀,不仅有切割的作用,还有杀人的能力。枪被发明出来,自然就具有杀人效率更高的效果,不管买它的人是为了自卫还是用来害人,这一点他们都心知肚明。一项技术的发明总是有原因的,而原因的背后一定有一个目的性的方向,暗示着它的主观价值。随着人类技术工具越来越复杂和先进,技术的目的将对用户产生更大的影响。而我们也越来越习惯于这些技术,就像我们的生活离不开电池和网络一样,这些技术潜移默化地改变了我们的选择和判断。当我们认为我们的选择是自由选择时,其实大部分都是被工具训练和改变的。最典型的现代科技就是各种互联网应用和游戏,其中短视频最为典型。依托沉浸式显示、无限滚动和偏好推荐算法,短视频已经成为手机用户的“消磨时间”神器,很多人会在不知不觉中花费数十分钟。稍微反省一下就会发现,这套推荐技术包含着利用人性弱点和成瘾机制来获取用户时间的价值倾向。虽然我们知道,这些公司和他们极其聪明的工程师不一定有操纵人的恶意,只是有取得商业成功的动机,他们会不断增加技术来操纵人。而这一次,工程师有了最好的助手,人工智能。AI算法的初始目标必须反映出人类的某种目的,比如在对抗性学习中获得最高分,在图像识别中获得最高识别率。相似的内容。人工智能不仅在某些方面表现出色,而且在计算能力上也赶上了人类的决策。从“不够好”的AI到“用过的坏”AI的AI威胁论,很多人都讲过很多次,但我们不再重复流行的“AI主宰人类”、“AI替代人类工作”的理解。》的观点。因为这种观点好像也说AI会成为一个独立于人类的新物种,但是现在,这样的AI要到猴年才能实现,或者说根本就实现不了我们在这里强调的是,不同于以往任何机械、化学或生物技术,只是提高了人类的部分能力,这次人工智能技术将取代人类的感知、判断和决策能力,这是一个伟大的对人类理性行为的“再生产”的贡献。人工智能技术的这种“非中性”特性必然会导致以下结果:首先,人工智能算法在数据训练过程中不可避免地会因为模型设计、数据样本不足等问题而出现偏差。例如,在2018年的一份报告中,亚马逊的AI招聘系统被指出系统性地歧视女性。当简历中出现“女性”二字时,应聘者的分数就会降低。大学简历也被降级。人工智能的权重决定来自学习亚马逊前10年的简历数据。很明显,这十年来大多数被录用的候选人都是男性,而人力资源部门对招聘技术工作的偏好教会了人工智能采用同样的策略。在更常见的面部识别领域,存在明显的性别和种族主义算法偏见。根据美国NIST(美国国家标准技术研究院)2019年12月的一份报告,在美国的人脸识别系统中,黑人的人脸识别错误率是白人的100倍,与黄种人相比,黑人人脸的错误率也是前者的10倍,而在执法机构的人脸图像数据库中,美国原住民的错误率最高。此外,女性和老人的面孔更难辨认。本次研究的数据来源为美国签证申请和过境数据库中的1800万张人脸照片,测试了189种人脸识别算法。研究结果代表了大多数商业应用算法的结果。今年发布的一段《编码偏见》流媒体视频就暴露了这个问题。当人工智能正在接管人类的信息、安全、机会甚至自由的权力时,如果人们不纠正偏见和歧视,那么人工智能技术将不可避免地创造一个更糟糕的世界,比如少数民族青年被误认和逮捕,被算法判定为无能的女性员工,以及被垃圾邮件包围的青少年。当然,这只是AI技术还不够好的表现。很多人认为我们可以通过不断调整算法和增加数据样本来解决这些低级错误、算法歧视等问题。如果偏见可以消除,算法可以优化,我们会迎来一个什么样的局面?其次,由于数据聚合的规模和技术竞争的排他性,人工智能技术很可能掌握在少数科技公司和政府手中,有助于拥有这种趋势,这是由拥有技术特权的人不可动摇的权力和财富支撑的和组织获取。我们不能说人工智能技术一定会助长极权和垄断,但我们看到了这种迹象。普通大众不仅通过互联网上的各种操作交出自己的习惯、喜好和消费数据,还通过可穿戴设备等信息获取我们的生理指标数据。如果任何一个人工智能算法系统能够同时拥有这两种数据,并与它们建立相应的关联,那么这个系统就真正完全获得了操纵人心的能力。正因为我们人类的任何一个决定都可以转化为各种生理、心理和行为数据,而我们想通过人工智能技术洞察这一切背后的因果链条,那么人工智能就很有可能完成这个人类。使命,如果向好的方向发展,人工智能将取代人类智能释放出前所未有的生产力,如果向坏的方向发展,人工智能技术也将产生难以想象的破坏力。比如在核冬天威慑之后,人工智能武器的发展将使精准杀伤成为可能。虽然在一定意义上可以避免与热武器的大规模冲突,但每个国家都将不得不依赖这种无处不在的人工智能武器或杀手机器人。威胁下的赤裸裸敌意这些AI武器一旦被极端组织掌握,就更有可能成为挑起事端的大杀器。再比如,一个更可能的趋势是,人工智能算法只代表少数特权者的意志,而大多数人沦为人工智能进化的数据源。虽然人工智能不可能直接统治人类,但人工智能被人类滥用,成为塑造人类不平等的帮凶是很有可能的。现在,更重要的是我们要放弃人工智能技术客观中立的幻想,警惕人工智能算法对我们决策的强大操纵。同时,我们要致力于推动人工智能普惠,这是接下来要做的事情。我们保留拒绝人工智能自由意志的权利。我们这里只是指出一个问题:人工智能是有价值的,它的价值来源并不是来自于突然的“自我觉醒”,而是从人身上继承了相应的价值。人的“自由意志”。当AI算法不够强大时,可能会继承人的认知错误和偏见,但当AI算法足够强大时,也不会变得“客观中立”,而是体现了人类工具理性的极致推动,它的价值观是权力更集中,财富更多,不断自我强化和提升。这种价值观反应到普通人类个体身上,可能有两种结果。一种是共同进化借助AI算法,在智力乃至体能上不断提升自己,成为掌控AI发展趋势的超人;另一种是无法理解AI技术逻辑,无法参与自主决策的普通大众。将他们的人生决定交给算法。因为人类生物的进化速度确实很难赶上AI算力的增长,人类的知识只能以线性循环的方式代代相传,而AI则呈指数级增长,这就决定了大多数人只能交付自己的决策机制,AI可以判断我们各种想法的成功概率。然而今天,这个问题却以一种非常微妙的方式呈现出来。就像很多人认为应该倾听内心的声音,但我们不知道这些内心的需求中,哪些是我们的“自由意志”想要的,哪些是由各种价值体系塑造的。而我们知道,从每一次广告推荐、每一次内容筛选、每一次自拍美颜、每一次行为追踪,AI算法都开始植入你的需求。在人工智能飞速发展的这几年,我们其实在“人工智能将造福人类”的宏大叙事中站得太远了。毕竟,我们对这个新兴的科技行业寄予了太多的希望。但是,我们看到在个人隐私领域推出的人工智能应用,都在竭尽全力掌握人的全方位数据,但实际上我们还没有为这个趋势做好准备。近期,我们也注意到,由于人脸识别技术在一些行业和场景中大量被滥用,一些地方的相关部门已经开始出台整改规定,要求对这些人工智能设备进行拆除。未来,这场关于人工智能应用边界博弈的拉锯战还将继续。但在未来的长期博弈中,即使牺牲一点便利,我们也要在放弃对人工智能的选择时保持足够的冷静,同时要有对AI“SayNo”的权力。