当前位置: 首页 > 科技观察

你可以拒绝算法

时间:2023-03-14 16:10:48 科技观察

《黑镜》有一集短剧,讲述了一个女主角失去新丈夫的故事。为了减轻自己的痛苦,她使用了一家公司的AI算法服务。后者通过收集丈夫在网上留下的各种数据,还原了丈夫的说话和反应习惯,并以此为原型,制作了一个与丈夫极为相似的机器人。随着我们使用更多样化、更深入的数字场景,“数据”本身的含义也变得越来越复杂。它不再代表一个孤立的使用行为,或者一个简单的业务数据记录。通过不断连接一个人身边的数据,“数据”这一资产可能会逐渐演变成人类社会存在的“DNA”。也就是说,如果你对自己的数据失去了控制,那么未来真正了解你的人可能就不再是你自己,而是一些拥有庞大数据存储系统的互联网平台。这是近几年随着移动互联网深入人们生活,平台公司逐渐成为庞然大物,越来越困扰普通人的问题。如何规避此类风险,世界各国都在加强监管手段。2021年8月20日,第十??三届全国人民代表大会常务委员会第三十次会议通过了(以下简称“《保护法》”),自2021年11月1日起施行。第四条定义这里所指的个人信息:个人信息是指以电子或者其他方式记录的与已识别或者可识别自然人有关的各种信息,不包括匿名信息。实际上,这里的个人信息是一般上下文中的数据。据新华社总结,《保护法》明确:①通过自动化决策方式向个人进行信息推送和商业营销,应提供不针对个人特征的选项或便捷的拒绝方式;对于账号、行踪等个人敏感信息,应当征得本人同意。也就是说,《保护法》从数据的产生、收集、使用等多个维度规范互联网业务。在一般情况下,信息处理更多的是算法。由于数据收集的隐蔽性,人们对个人信息保护的诉求越来越体现在对算法影响的反思上。最常讨论的话题之一是“算法中是否存在原罪?”表示支持算法作为新技术的人认为,“算法”是典型的科技产品。在某种程度上,这种技术中立性已经达到了极致——在很多情况下。甚至算法的设计者自己也无法完全理解这背后的机制。算法作为互联网的发展引擎,同时创造了娱乐神话和商业神话,在互联网的奇迹中扮演了不可或缺的角色。但对算法持谨慎态度的人认为,算法背后有明显的目的。没有定量反馈,算法就无法工作。而正是这个目的本身,无论是增加用户的点击概率,还是延长用户在界面上的停留时间,甚至是臭名昭著的“大数据杀戮”,都带有一些“原罪”。无论是支持者还是反对者,都没有绝对的对错。但问题在于,“算法”具有内在的强制能力:一方面,算法以海量数据为食。通过正反馈的不断优化,“算法”像滚雪球一样放大了它在用户中的地位;另一方面,算法背后需要海量数据的验证,这也意味着“算法逻辑”天然倾向于平台级巨头。这些平台及其背后的业务系统,不会让我们轻易拒绝这套高效的运营工具。而且,算法对人的追求已经不局限于单一的应用或平台,他们已经开始“串通一气”。最典型的案例就是去年苹果宣布调整臭名昭著的IDFA(IdentifierForAdvertising)规则修订。简单来说,像IDFA这样的系统,就是当你在不同的平台之间切换的时候,所有的平台仍然可以知道你是谁,从而形成一种各个算法对同一个用户的“猎杀”。去年IOS系统将IDFA从默认开启改为默认关闭。该系统通过标记用户的行为来有效地将用户与广告匹配。虽然有一定的监管授权,但大多数用户并不知道这种收藏+撮合的行为,因此被广泛认为是一个“灰色行业”。条例出台后,一大批广告代理商反弹。据称,Facebook可能因此失去其“广告网络”一半的收入潜力。仅一次IDFA调整就能引起行业震动。隐私权归属对商业的影响可能远超我们的想象。在国内外的流媒体和社交平台生态中,大量的用户数据获取行为实际上是对互联网商业变现效率的养料。例如,在电商平台页面,如果用户不登录,则无法搜索商品;在社交平台上,用户关闭个性化广告功能后,将在6个月内自动恢复;在一个视频流媒体上,用户的每一次点击,都会成为平台进一步分析用户偏好的工具。短视频流媒体个人账号可以成为新时代的“人物标识”;选择和划掉,是在帮助平台记录用户的喜好……在购物和阅读软件的末尾,会有一个游荡在网络世界的幽灵:“猜你喜欢”。面对巨头提供的“便捷服务”,用户往往没有足够的选择余地。大多数用户无法真正离开上述垄断的互联网平台。相比于即时满足的便捷和遥遥无期的副作用的私密性,大多数人只能捏着鼻子选择前者。而这次的《保护法》就非常有针对性地限制了这些被诟病已久的行为。例如,第十六条规定,“个人信息处理者不得以个人不同意对其个人信息进行处理或者撤回同意为由拒绝提供产品或者服务,但处理个人信息是为履行其义务所必需的除外。提供产品或服务。”针对老百姓吐槽的“不同意这些流氓条款就不能用app”的现象,平台被迫为用户提供权利选择。例如,第24条要求“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明和结果的公平、公正,不得在交易方面对个人实施不合理的差别待遇。  使用自动决策向个人推送信息和商业营销时,应同时提供不针对个人特征的选项,或为个人提供便捷的拒绝方式。  通过自动化决策做出对个人权益有重大影响的决定个人有权要求个人信息处理者解释,有权拒绝个人信息处理者仅通过自动化做出决定决策。”这是法律语境下的说法,其实指向“大数据杀戮”,个性化推荐往往让用户有被虐的感觉。经过多年互联网公司对用户数据的横行,终于有了法律让人们对这些常规但有问题的算法监管行为说不,从《保护法》的征求意见稿到最终稿的最终出炉,业界都对标了欧盟的GDPR(《通用数据保护条例》)。《保护法》对同意规则、数据保留期限、信息处理者的行为规范和义务,以及人脸数据等重要特定类型的数据保护规定,给出了明确具体的指引和要求。《保护法》配合处罚措施也十分严厉:存在前款规定的违法行为,情节严重的,由省级以上履行个人信息保护职责的部门责令改正,没收违法所得,处5000万元以下罚款。可以处年营业额5%以下的罚款,可以停业、停业整顿,并通知有关主管部门吊销相关经营许可证或者营业执照;可以处100万元以下罚款,并可以决定在一定期限内禁止其担任关联公司的董事、监事、高级管理人员和个人信息保护负责人。而且,纵观整个法律文本,可以看出立法在举证、权利认定和界定等行为上向普通用户倾斜。这些都让普通人对自己的数据保护有了前所未有的详尽和清晰的依据。《保护法》还有一点值得关注的是,它用一个章节来明确个人信息跨境提供的规则,要求跨境信息提供者接受国家网信部门组织的各项安全检查。这也与近期多家企业数据出海涉及的安全风险处置方式相呼应。这些跨境流动的数据,也是普通用户需要保护的重要数据的一部分。《中华人民共和国个人信息保护法》注定是一部具有里程碑意义的法律。希望能为普通用户提供全方位的保护,也为互联网时代的企业提供指南。11月生效后,任何掌握和加工数据的企业,以监管跟不上业务和技术进步为由推脱平台责任,任由算法追求利润而忽视用户权益保护的,都将被处以极刑。be不仅不合适,而且会花费真金白银。隐藏在“黑匣子”中的算法最终会被拿出来溜一溜。