算法,产生基于人类行为的“锁定效应”。虽然立法还赋予用户拒绝个性化推荐的权利,但对于许多用户而言,完全拒绝算法跟踪可能会影响平台内其他功能的使用。因此,也需要对算法进行场景化、精细化治理。“大数据杀熟”升级、个性化推送固化思维……不久前,上海市消费者权益保护委员会透露,随着人工智能等新技术的应用,算法日新月异,平台对消费者个人信息全方位采集,算法“杀熟”方式升级,基于平台对个人信息的全面掌握,转向“杀熟”。例如,平台会根据消费者使用的手机型号等个人信息,匹配相关的产品、广告或不同的折扣。优惠券。面对越来越多的算法套路,越来越精准的营销和个性化的推送,用户能否完全拒绝或离开算法?以及如何规范算法?近日,专家学者接受了民法社记者的采访,从技术和立法两个方面对这些问题进行了分析。算法技术会固化和放大偏见。上海大学法学院大数据与人工智能法治研究中心执行主任陈继东表示,狭义上的算法可以看作是纯技术,但随着人工智能技术和大数据的发展,它已经应用到更多领域。广义上的算法是以建立社会秩序为目标而设定的一系列步骤。“从某种意义上说,我们常说的人工智能就是一种可以学习、判断和决策的算法。”陈继东表示,算法是人机交互场景下的一种新的决策形式。可以通过代码设置、数据计算、机器自动化判断来进行决策。在这个过程中,人和机器共同参与,既有人工决策,也有机器自动决策。既然如此,算法歧视到底是人为还是机器造成的呢?对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示,应该从算法技术架构原理入手。“算法歧视的原因有很多,有模型设计的原因,也有数据本身的歧视。”张鑫表示,算法本身是一门纯技术,但现在算法技术已经深度嵌入到平台经济中,并根据不同的场景进行运作。它是一种全自动化的决策,其中一些需要人为干预,但算法的最终结果是批量的、大规模的、系统的决策,可能会系统性地放大存在的偏见和歧视问题。传统世界。陈继东还表示,使用算法技术做决策可能会固化和放大偏见。这是因为算法数据是从人身上收集的,数据中难免会夹杂着人的情感认知偏差。这些数据输入终端后,算法会在模型更新的迭代过程中进一步固化偏见因素,加深偏见和歧视。例如,求职应用程序筛选求职者时,可能会包含一些性别和地域偏好。基于人为偏见的算法模型在多场景深度嵌入后,会出现用户在多场景反复被歧视的“锁定效应”。张欣举例说,如果用户被不当贴上“低信誉”的数据标签,可能会通过共享数据标签产生歧视的“锁定效应”。比如使用共享单车免租的用户因为“信用低”被拒绝,然后发现在保险费率核查、银行贷款等更多场景中会遇到类似情况。陈继东表示,由于算法机器学习及其本身的复杂性,再加上一些商业平台算法的商业机密特性,大多数人无法理解算法的工作原理,导致算法使用者处于事实上的支配地位。法律赋予用户拒绝个性化推荐的权利除了算法歧视,近年来,个性化推荐和精准营销引发了公众对个人信息安全的担忧。同时,算法在用户画像上越来越精准的同时,也让人担心同质化的内容会固化甚至导致人们的思维退化,阻碍人们通过互联网获取多样化的信息。陈继东表示,算法的精准推荐限制了个人信息的自主选择,加剧了“信息茧”现象。互联网的开放给了人们更多选择信息的机会。借助算法,人们可以定制适合自己喜好的App内容,但这也让用户陷入了自己编织的“信息茧”。陈继东表示,目前算法可能带来的法律风险在于其基于社会因素对个体进行分类、排序和决策,主要包括搜索结果竞价排名、精准广告营销、个性化推荐、保险或贷款评估、信用评级、图像识别和数据画像等活动场景。张欣表示,其实我国的立法赋予了用户拒绝个性化推荐的权利。例如,第十八条明确规定,电子商务经营者根据消费者的爱好、消费习惯等特点,向其提供商品或者服务。在提供搜索结果时,应当同时向消费者提供不针对其个人特征的选项,尊重和平等保护消费者的合法权益。陈继东表示,电子商务法第十八条规定了网络平台算法个性化推荐结果的消费者保护义务,明确平台推荐算法的搜索结果应当提供非个性化推荐的一般结果,即也就是说,他们不针对消费者的个人信息。一般搜索结果。但该条的立法目的并非限制提供定向搜索结果和推送定向结果的行为,而只是对其进行限制。此外,我国的《民法典》、《网络安全法》、《消费者权益保护法》等都从个人信息和数据处理层面间接规范了算法。例如,在网络安全法第四章“网络信息安全”中,对网络运营者收集、使用个人信息进行了详细的规定和严格的限制。其中,该法第41条规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、收集、使用个人信息的目的、方式和范围。使用信息,并且接收者同意。网络运营者不得收集与其提供的服务无关的个人信息,不得违反法律、行政法规的规定和双方的约定收集、使用个人信息,并应当按照网络运营者的规定处理其保存的个人信息。法律、行政法规的规定与用户约定。同时,该法第43条赋予公民在发现网络运营者违规使用个人信息时,有权删除或者更正自己的个人信息。基于此,陈继东认为App应设置用户拒绝接收精准营销等选项,并为用户提供选择退出选项。实施场景化、精细化治理。用户能否完全拒绝“算法”?张欣表示,正在开发的《数据安全管理办法(征求意见稿)》试图解决这个问题。《数据安全管理办法(征求意见稿)》第二十三条规定“网络运营者利用用户数据和算法推送新闻信息、商业广告等,当您选择停止接收定向推送信息时,您应当停止推送,并删除所收集的用户数据和个人信息。设备识别码等信息。”张鑫分析说,这一规定可以从技术上保障用户拒绝个性化、精准推荐的权利。“每一台移动设备都有一个设备识别码。一旦算法系统中删除了设备识别码,系统就无法再追踪这台设备的数据,也就无法再对用户进行画像,进而推送精准营销广告。以及个性化的推荐内容。”不过,张欣认为,对于很多用户来说,在生活中完全拒绝算法的追踪是不现实的。因为如果采用删除设备识别码的方式拒绝算法推荐,可能会影响用户平台其他功能的使用。例如,对于评分较高的美食餐厅,很难获得有针对性的推荐信息。同时,互联网平台负有诸多法律责任和义务。一旦设备识别码被删除,平台将难以通过识别设备来控制设备上账户的风险。如何解决上述矛盾?有人认为,应该通过公开算法、提高算法的透明度来对算法进行监管。对此,陈继东表示,技术层面的算法公开是指算法用户公开算法计算数据和编程源代码,算法公开也能在一定程度上促进算法治理。算法公开的目的是为了抹平消费者与平台方之间权力关系的失衡,通过公开实现治理和监管,通过算法的可访问性来验证算法是否存在危害。但由于技术差距的存在,此类披露对普通用户而言毫无意义。陈继东表示,由于算法和机器学习技术的复杂性,算法公开的效果可能有限。因此,算法的治理还需要更广泛的配套制度,比如算法认证、算法检验等。张欣还表示,目前算法的公开还涉及到商业秘密和知识产权的保护,以及如何披露以及在何种程度上需要合理监管。目前国际上比较成熟的算法治理方式是对算法进行影响评估。通过设立专门的监管机构或评估工作组,评估算法对个人隐私、公平、平等和社会经济可能产生的影响。进行系统评估。陈继东表示,这一点在《中华人民共和国个人信息保护法(草案)》(以下简称《草案》)中也有体现,包括事前的算法影响评估、事中的算法审核、事后的算法决策需求说明和否决制度事件。张欣表示,目前《草案》规定算法的影响力评价只需要个人用户的评价,评价的依据是“法律法规”,但法律可能滞后,算法伦理应该是引入作为评价依据,并进行多重评价。张鑫表示,在实践中,算法公开或算法透明化的呼声主要集中在公共部门。“目前,我国对算法的立法规范主要集中在电子商务领域,但在实践中,算法技术已经应用到很多领域,包括行政领域。一旦算法在电子商务领域的应用出现问题公共领域,可能对公民权利产生不利影响。因此,应制定科学合理的监管议程,首先根据风险程度对公用事业领域的算法进行监管。张鑫建议,算法应场景化、精细化治理,立法机关应制定涉及不同场景的法律法规,具有系统化、场景化的算法监管意识。
