查看原文
其他

知我者,当谓我心忧:个人信息自动化决策的法律规制与合规要求

宁宣凤 吴涵等 金杜研究院 2022-11-22

引子

不知你是否感同身受,我们已经身处在这样的一个虚拟但又无比真实的“熟人社会”:虽仍然渺小,但作为数字时代巨幕中的每一个“像素点”,无限扩张的互联网空间将每一件点滴的过往,都像刺青一样刻画在我们的“数字皮肤”[1]上。人们彼此不相知、不相识,但有人却比你更了解你的喜好、你的过往,乃至于你未来的可能。与此同时,你的标签取代了你的名字,描述一个人远比识别一个人更重要。与此同时,正如已经被人无数次提及的“啤酒和纸尿裤”故事,大数据分析和自动化决策作为有效的可以显著提升平台创造用户价值和市场需求的手段或者工具,被公认成为互联网竞争的制胜秘笈。[2]在此基础上,个人信息和海量的数据成为推动互联网乃至整个社会生产力机器运转的原油与动力。

显然,大数据的预言家们早就料想到了这样的社会结构与场景,但原先可能他们憧憬和向往的全新时代遭遇了一系列令人措手不及的现实问题,“大数据杀熟”无疑是其中的一个典型。本文将以“大数据杀熟”为切口,对其背后的自动化算法运行机制和《个人信息保护法》第二十四条的法律规范要义进行探究与考察,最后为互联网市场竞争主体如何合法合规运用自动化决策机制提供些许启发。

一、个人信息自动化决策的法律意义与规制框架

(一) 通过规制自动化决策以规避“大数据杀熟”的理论逻辑

“大数据杀熟”背后引人愤怒的道理其实很简单:当我们事后发现达成的交易、采纳的行为是提供方通过研究我们的喜好、过往,而基于全部关于我们的历史信息形成的洞察甚至偏见,对于时下的消费或者未来的行为进行自主预判,并施加不合理的影响而形成的结果,我们会不满于这种类似于原先时常发生在熟人社会中的“差别待遇”,或者说,我们因为自己的某种特征为相对方所熟悉后而受到了“歧视”。

但与以往最主要的不同点在于,这种所谓的“差别待遇”或者“歧视”的产生,或许仅来自于一种自动化程序的结果,至少在这种结果产生的时点缺少人为干预的因素。这成为了判断企业运用自动化决策而可能带来差别待遇时,其合法性、合理性备受争议的问题焦点。

从简要的经济学观点来看,“大数据杀熟”实则产生于一方利用自动化决策所产生的信息差。典型的大数据杀熟是交易中的一方利用其充分掌握的交易相对方的信息,来进行个别化的、差异化的定价。这种差异化定价策略,在此前之所以不普遍,主要是因为相关方难以掌握交易相对人的足够信息以及处理相关信息时存在很大难度。但随着互联网信息技术的发展,消费者数据被大量收集以及商家数据处理、运用能力的飞跃,使得差异化定价不再是困难的事情。因此从理论和逻辑上看,在未来的商业实践中,商家采取差异化定价的策略会越来越普遍。[3] 不可否认的是差异化定价策略具有一定经济意义上的合理性,比如基于不同交易主体的特点达成不同的交易条件,定制化的提供服务。

但与此同时,上述基于“定制化服务”而形成的差异化定价策略的前提在于交易双方对于交易条件的合理性和公正性至少不具备显著的信息壁垒。即使交易方就交易条件形成合意,在大数据分析工具、自动化决策这样高效率的算法机制介入的情形,我们无法期待交易中的消费者作为个体,可以对其所达成的全部交易条件的合理性、公正性作出完全准确的预判。

因此,如何在进行互联网营销、广告推荐以及达成交易的过程中合法设计、使用自动化决策的算法程序,成为法律可以介入的关键节点。我国《个人信息保护法》在定义条款中明确表示,“自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”上述“大数据杀熟”的产生过程,便是自动化决策的自然结果,而《个人信息保护法》第二十四条便通过规制“自动化决策”作为一种生产工具的使用方式,要求自动化决策机制的透明度、公正性,以及在展示自动化决策结果的多样性、保障个人对自动化决策的解释说明权和拒绝权等一系列组合拳的方式,以尽可能规避“大数据杀熟”的消极后果。

(二) 通过规范个人信息处理以治理“大数据杀熟”的规则要义

那么,“大数据杀熟”可能带来何种消极后果?为何法律需要通过规制个人信息处理的方式,以实现对“大数据杀熟”的治理?这又是另一个有趣且深刻的话题。

从最为直观的感受上来看,当个人因自动化决策结果而遭受“大数据杀熟”时,第一反应是直觉上的“不公平”。在法律上来看,这种公平感的缺失,可以理解为个人作为消费者在未充分知情的前提下,未被公平、公正地对待。因此,平台经济下的“大数据杀熟”行为,的确有可能构成《消费者权益保护法》下的侵害消费者知情权、公平交易权的违法行为。但对于此性质的定性分析,需要慎之又慎,原因在于商业实践中完全相同的交易环境和交易条件非常少见,衡量公平交易权的介入因素还应当包括时间、地域乃至消费动机。换句话说,并非接受了不同的交易价格,消费者便可以径直认为自身受到了“价格歧视”。当然,这也成为了现行法律规则中通过界定何为“交易条件”和“合理差别”等约束自动化决策实现平衡的规则设计时的难点,本文将在后文详细介绍分析。此外,为了与《消费者权益保护法》相衔接,《电子商务法》第十八条第一款通过约束自动化决策的展示选项,即搜索结果的呈现方式上,以保障消费者的公平交易等基本权益。但无论如何,上述规则均适用于消费领域,而互联网空间中使用自动化决策分析的场景其实更为广泛。

其次,“大数据杀熟”作为一种间接的消极结果,还有可能成为不正当市场竞争行为,乃至市场主体利用算法技术而滥用支配地位、实施垄断的具体表现。就目前所受关注的典型案件而言,不难发现,由于平台效应愈发加剧的赢者通吃局面,大型或者超大型互联网企业凭着优势的算法与数据竞争地位,在技术规则的隐蔽之下实施不合理的差异化推荐和交易实则更为普遍和典型,而如果法律放弃对此类行为的规制,无疑是对其滥用技术优势条件而扭曲合理的市场竞争秩序、损害其他市场竞争者,最终导致社会整体福利受损等可能结局的纵容。但客观地说,《反不正当竞争法》和《反垄断法》的保护法益主要着眼于市场主体的竞争利益和社会层面的竞争秩序,且适用于各自的条件和范围,因此,对于因不合理地利用自动化决策机制带来的消极后果,仍有待于更为直接的新规建制。

从根本上说,算法等自动化决策机制是互联网平台提供服务的一种工具和具体手段,而“大数据杀熟”作为一种外在的消极表现结果,来源于对其用户个人信息和海量数据的滥用因此,对于“大数据杀熟”孰是孰非的讨论,如果说可能存在某些法律层面上的问题,那就在于平台或者商家收集用户个人信息,并且利用这些信息对用户进行数据画像的行为是否合法合规。采用大数据技术来分析特定用户的消费习惯,从而进行差异化定价,应该被限制于用户知情同意以及法律允许的范围之内[4]因此,综合以上分析,“大数据杀熟”的本质是未能在合法性和合理性的法律框架内处理个人信息,从而产生的对消费者个人合法权益的“侵害”和对市场竞争的“乱序”。有效地规制“大数据杀熟”,根源上需要着眼于约束个人信息处理者处理个人信息的合法性、合理性要求。

(三) 规制利用数据和算法技术,实现利益平衡的法律框架

时下,对于利用大数据分析技术实现个性化内容推荐的算法而言,已经受到了日渐严格的监管。我们在此前的文章《积跬步,至千里——算法治理之互联网信息服务算法推荐管理》中已经进行了较为广泛的观点分享。而经我们的归纳整理,如果聚焦于“大数据杀熟”背后的数据与算法技术规制,结合不同的规范领域和层次,已然形成了一整套利益平衡的法律规则框架。

在这个框架体系内,以《电子商务法》《个人信息保护法》等近些年的互联网时代立法,以及《在线旅游经营服务管理暂行规定》《深圳经济特区数据条例》等为代表的部门规章或者地方性法规等,通过具体条文的方式体现出了相近的价值理念。以下是我们梳理的法规总结表。

(点击查看大图)

二、自动化决策约束下个人信息处理规则重点研讨

(一) 第二十四条第一款解读

“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”

1. 如何理解“保障决策的透明度”

显然,《个人信息保护法》第二十四条第一款对于自动化决策的过程透明性和结果的公平性提出了法律上的要求,即“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正”。

一般理解来看,对于过程的透明性要求,一方面与个人信息处理者使用了自动化决策的算法机制的可解释性以及解释的程度相关,另一方面,也向个人信息处理者提出了向个人信息主体告知其所可能用于自动化决策、用户画像分析以及基于此所进行的一系列大数据处理活动规则的必要性。实践中常见的提升个人信息处理自动化决策机制透明性的方法,如在隐私政策中明确告知使用自动化决策或者画像分析技术的业务场景,并且在具体的业务模块或者前端界面中使用通知横幅、弹窗或者页面标签等形式向用户明示自动化决策机制的使用。此外,还可以专门形成对自动化决策机制所使用的个人信息类型、目的和方式等基本要素的单独描述文件,以满足相应的法律要求。

2. 如何理解“在交易价格等交易条件上实行不合理的差别待遇”

与“决策过程透明度”要求一起被规定在此次《个人信息保护法》条款中的,还有“决策结果的公平公正性”要求。如前所述,自动化决策作为一类算法机制,其使用在法律上并不必然具有被责难的属性,但之所以需要对自动化决策机制进行一定的法律规则限制,原因在于对于这类算法机制的使用不当,便有可能形成结果上的失衡,从而导致个人信息主体权益受到侵害,而最为典型的表现就是当个人信息主体为消费者时的公平交易权受损。

从法律规定的解释上看,把握自动化决策机制结果公正性要求的关键,在于确保在交易价格等交易条件上的“差别待遇”被控制在“合理”的范围之内。事实上,该条款其实从侧面认可了个人信息处理者通过大数据分析和自动化决策机制,为个人信息主体提供个性化和定制化的服务,这种合理范围内的个性化服务的差异待遇,也可以体现在包括对个人在交易价格等交易条件上。我们看到由于个性化推荐、定制化服务对于互联网经济效率和整体福利提升的好处,因此,首先需要明确的是,《个人信息保护法》以及相关法律并未一刀切地完全禁止或者严格限制使用自动化决策以提供个性化服务。

但此时的法律理解难题在于,“合理”作为一个法律术语中可解释空间较为宽泛的描述性概念,事实上具有较大的不确定性。从理论上看,“合理的范围”至少需要符合法律以及社会一般价值观念对于“公平公正”的预期。我们理解,如借鉴合同法领域中“显失公平”的相关理解思路,或可从结果向度更好地理解“公平”。此前我国学者对显失公平的定义多根据最高法的司法解释(《最高人民法院关于贯彻执行<中华人民共和国民法通则>若干问题的意见》第72条):一方当事人利用优势或者对方没有经验,致使双方的权利义务明显违反公平、等价有偿原则的,可以认定为显失公平。[5]《民法典》第一百五十一条规定,一方利用对方处于危困状态、缺乏判断能力等情形,致使民事法律行为成立时显失公平的,受损害方有权请求人民法院或者仲裁机构予以撤销。有学者认为,在消费者合同中,消费者只要能够举证证明合同关系失衡,自己处于不利境地,即可主张合同显失公平。[6]可见,因所处窘迫或者缺乏信息判断能力而将自己处于合同关系中的不利境地,或可成为“公平”原则被破坏与否的一个标准。同理,如因自动化决策而达成的交易条件使得消费者一方因缺乏信息对等地位而订立了消费合同,产生了消费者个人合法权益的损害结果,这一定意义上便意味着可以认定自动化决策带来的差异化结果超出了合理范围。

从现有的配套或者相关法规解释来看,《国务院反垄断委员会关于平台经济领域的反垄断指南》规定,分析是否构成差别待遇可以考虑的因素包括:(1)基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;(2)实行差异性标准、规则、算法;(3)实行差异性付款条件和交易方式。而《深圳经济特区数据条例》中将交易条件细化为交易安全、交易成本、信用状况、交易环节、交易持续时间等方面,并以例外条款的形式规定了不被认为属于“对交易条件相同的交易相对人实施差别待遇”的情形,具体包括:

(一)根据交易相对人的实际需求,且符合正当的交易习惯和行业惯例,实行不同交易条件的;

(二)针对新用户在合理期限内开展优惠活动的;(如常见的“拉新促活”)

(三)基于公平、合理、非歧视规则实施随机性交易的;

(四)法律、法规规定的其他情形。

由上可见,对于该款的“交易条件”“合理范围”等均需要进一步的立法与司法的互动过程,进行更为立体、全面和生动的解释,以更好地廓清自动化决策机制下的公平公正的法律含义。

(二) 第二十四条第二款解读

“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。”

《个人信息保护法》第二十四条第二款赋予个人充分的选择权。如企业涉及通过自动化决策方式向个人进行信息推送、商业营销,则需要考虑至少向用户以下一项合规路径,即:

  • 路径一:向用户提供不针对个人特征的选项;

  • 路径二:向用户提供便捷的拒绝方式。

1. 如何理解“信息推送”所指代的服务范围

相较于“商业营销”一般指代广告投放,对于“信息推送”内涵的理解可能存在一定争议。从技术角度出发,狭义的“信息推送”往往指代通过自身产品或第三方工具对于用户移动设备、信箱进行的主动信息推送,从而使得用户能够在移动设备通知栏、信箱中接收到 产品主动推送的信息。但参考此前App执法文件[7]中的监管要求以及包括《信息安全技术 个人信息安全规范》(以下简称“《个人信息安全规范》”)、《信息安全技术 网络音视频服务数据安全指南(征求意见稿)》在内的一系列标准对于个性化展示的规制范围与要求,我们理解将本条所提“信息推送”局限于上述狭义的信息推送可能大大限缩了立法预期的规制范围,如今社区、电商、短视频等各类产品应用中常见的根据用户基本资料、使用偏好以及标签信息所进行的“信息流推送”可能同样应作为本条要求规制的重点对象,例如根据用户画像向用户推送用户感兴趣视频的短视频服务提供商、在首页根据用户偏好展示其感兴趣商品的电商平台。

2. 如何从实操层面赋予用户选择或拒绝的权利

  • 就路径一而言:如何理解向用户提供不针对其个人特征的选项成为相关企业重点关注的问题, 而就这一问题,《个人信息安全规范》7.5 b)的注释中曾给出较为明确的解答,“基于个人信息主体所选择的特定地理位置进行展示、搜索结果排序,且不因个人信息主体身份不同展示不一样的内容和搜索结果排序,则属于不针对其个人特征的选项。”因此,如产品提供方在提供基于自动化决策推荐服务外,还提供了仅根据用户选定地理位置进行信息推送或商业推广的选项,则可视为满足路径一的要求,例如电商平台在商品搜索环节,除向用户提供基于用户画像的结果展示,还向用户提供基于地理位置、销量、评价等维度排序的商品检索功能,则可以认为电商平台向用户提供了不针对个人特征的选项。

    但此时,可能又有些企业会提出疑问,如果基于选定的地理位置信息进行信息推送可以被认定为提供了不针对个人特征的选项,那么仅基于用户填写的性别、爱好等信息进行信息推送或商业营销是否又可能被认为向用户提供了不针对个人特征的选项?就这一问题,如果仅从字面解读的角度出发,性别、爱好都能够具体反映用户的个人特征,那么基于这类个人特征所推送的信息可能仍无法被认定向用户提供了不针对个人特征的选项。而回溯立法目的,我们理解要求企业提供不针对个人特征的选项的目的,是为了赋予用户自由选择的权利,避免用户仅能访问企业基于用户画像所推荐的其希望用户看到的内容,使得用户陷入“信息茧房”,进而造成认知面狭隘等问题。那么如果企业从产品设计层面出发,能够确保用户自主选择并切换所希望看到的内容(如可在界面内自主切换性别或所希望看到的频道内容),那么基于用户自主选定的性别或爱好进行信息推送与商业营销是否能够被认定满足提供可不针对个人特征选项的要求。基于以上,我们理解关于“提供不针对个人特征的选项”的定义与实现方式可能仍存在一些模糊地带,有待进一步解释与澄清。

  • 就路径二而言:我们理解实践中已有不少企业在产品中加入开关,在用户关闭按键后,即停止向用户提供个性化推荐内容。例如,部分App已在“设置-隐私”中加入“是否允许向用户展示程序化广告”的开关,并在用户点击关闭后提醒用户未来提供广告内容的相关度会降低,但所看到广告数量将不会受到影响,从而满足“向用户提供便捷的拒绝方式”的合规要求。

    当然值得注意的是,目前部分企业出于业务转化率角度出发会对于开关关闭期限进行限制,并在用户关闭一定期限后重新开启个性化推荐选项。我们理解仅提供一定期限的拒绝选项在一定程度上对用户对其个人信息处理的决定权与拒绝权造成了一定程度的削弱,而在新法生效后,此等设计的合法合规性无疑将受到进一步考验。

(三) 第二十四条第三款解读

“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”

近年来,各国立法者开始关注自动化决策机制不透明性带来的风险。《通用数据保护条例》(以下简称“GDPR”)不仅在第十五条中规定了数据主体有权要求解释一般性自动化决策规则以保障其自身的知情权,同时还在第二十二条明确规定了“对数据主体产生重大影响的纯自动化决策”的适用限制以及数据控制者所需采取的安全保障措施。《个人信息保护法》第二十四条第三款充分借鉴域外立法经验,在保证自动化决策透明度和公正性的一般性要求的基础上,针对结果会对个人权益有重大影响的自动化决策提出了更为严格的限制条件,个人有权要求个人信息处理者对于该等自动化决策进行说明,同时也有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。然而,实践中,该条款的适用面临了诸多质疑,仍需要进一步明确“对个人权益有重大影响的决定”的定义并厘清解释说明权与拒绝权的行使机制,否则该条款难免将沦为具文而被束之高阁。

1. 如何理解“对个人权益有重大影响的决定”

“对个人权益有重大影响的决定”的定义在《个人信息保护法》中暂付阙如,该等立法空白可能增加侵害个人信息主体合法权益的风险,同时也在一定程度上可能加重企业的合规负担。对此,我们注意到,域外立法经验、现行部委规章以及国家标准为立法者审慎而清晰地界定何为“对个人权益有重大影响的决定”提供了重要的借鉴,同时也为企业采取相应的合规措施提供了一定的指引。

从比较法的角度来看,GDPR第二十二条明确规定,数据主体有权不受到对其产生法律效力或对其造成类似的重大影响的自动化决策的限制。在此基础上,欧盟第二十九条数据保护工作组制定的《关于自动化个人决策目的和识别分析目的准则》(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679)(以下简称“《自动化决策准则》”),进一步厘清了“对个人权益有重大影响的决定”的定义。在GDPR语境下,对个人权益有重大影响的决定是指“具备对个人的境况、行为或选择的产生重大影响的潜在可能,在最极端的情况下,可能导致对个人的排除或歧视”的决定,以下决定均属于“对个人权益有重大影响的决定”:影响某人的财务状况的决定,如在线申请信用卡以及向经济困难的人展示在线赌博广告,以及影响某人的就业机会的决定,如在线招聘。

就国内的现行规范而言,GDPR第二十二条的类似表述亦见于《互联网个人信息安全保护指南》6.3c)以及《个人信息安全规范》第7.7条,前述规范将自动决定个人征信及贷款额度、用于面试人员的自动化筛选以及行政司法决策纳入了“对个人权益有重大影响的决定”的范畴之中。此外,《个人信息安全影响评估指南》(GB/T 39335-2020)则要求从“限制个人自主决定权”、“引发差别性待遇”、“个人名誉受损或遭受精神压力”、“人身财产受损”四个维度对个人权益影响的重大性进行评估。

可见,国内现有规范均在不同程度上借鉴了GDPR及其配套指南的规定,但对于何为“对个人权益有重大影响的决定”仍缺乏统一的界定标准,具体监管规则的边界有待相关主管部门出台进一步的规章和指南予以明确。在自动化决策监管日渐趋严但缺乏明确监管规则的当下,企业或可先行参考前述境内外立法规定,结合自动化决策机制的可替代性以及适用自动化决策的具体场景,在日常经营中尽可能识别和判断自动化决策是否对于个人信息主体产生重大影响,并采取必要的合规措施。

2. 对自动化决策的解释说明权与拒绝权的实践困局

伴随着自动化决策的广泛应用,自动化决策结果对于个人的影响不再限于单个具体场景,还可能通过数据流通共享对个人产生跨越公私领域的深远影响。例如,第三方征信机构根据个人的支付软件使用行为形成的信用评分,不仅影响到了个人对于该支付软件的使用,而且业已成为在银行风控、租车租房、预定酒店乃至办理签证等场景中对个人进行信用评估的重要依据。同时,自动化决策规则的不透明性进一步加剧了个人对于自动化决策广泛影响的顾虑,各国立法者逐渐就个人信息主体对于自动化决策的解释说明权以及拒绝权达成共识。为了平衡个人主体权益以及自动化决策应用所产生的经济效益,《个人信息保护法》对于如何约束对个人权益产生重大影响的自动化决策机制进行了一定立法尝试,然而,目前《个人信息保护法》第二十四条第三款的实操性仍有待考验。


(1)对自动化决策的解释说明权

《个人信息保护法》虽规定个人可以要求个人信息处理者对于自动化决策予以说明,但是个人信息处理者对于自动化决策机制的解释说明范围与个人信息主体的具体行权机制均悬而未决。

首先,不乏有人主张个人信息处理者需对于自动化决策机制的源代码进行完全的公开,对此,有人就源代码的可理解性以及可能损害商业秘密提出反对意见。实践中,网信办的监管调查以及司法裁判中均未要求相关企业公开算法的源代码,而是要求相关企业就算法的设计理念以及算法决策结果的可验证性与可追溯性进行解释和说明。对此,回溯立法目的,我们理解设置个人信息主体对自动化决策要求解释说明权的制度目的之一在于保障个人信息主体的合法权益,矫正自动化决策中双方严重信息不对称的地位,为保障个人知情权以及对自动化决策进行必要干预提供有力的抓手[8]。而公开源代码显然无助于个人信息主体理解和评估自动化决策的可验证性与公平,相反可能使得个人信息处理者对自动化决策机制的解释囿于形式,有违设置自动化决策解释说明权以保护个人信息主体权益的立法初衷。

其次,个人信息处理者对于自动化决策机制的说明是否限于个人信息处理者对于个人信息处理规则所需的解释说明亦亟待进一步厘清。该问题不仅仅关乎《个人信息保护法》第二十四条与第四十八条之间的适用关系,而且也关系到了自动化决策应用的合理性与正当性的判断标准。尽管判断自动化决策合理正当性的标准有待结合多种因素进行深入研讨,但是至少可以明确的是,自动化决策技术本身其实无涉合理性与正当性的判断,立法者增设对于自动化决策的特别规制,是为了防范与救济个人信息主体无法有效干预自动化决策而对其合法权益产生的侵害,而此处的合法权益并不限于对个人信息主体的知情权的保障。若自动化决策的解释权完全等同于对个人信息主体知情权的保障,那么个人信息主体所面临的选择只能是接受或者退出自动化决策,并无法发挥自动化决策解释权应有的救济功能。同时,若个人信息处理者对于自动化决策机制的说明仅限于个人信息处理规则的说明,那么立法者对于自动化决策机制解释权适用范围的有限性与个人信息处理者解释说明义务的普遍性之间将产生冲突。因此,个人信息处理者对于自动化决策进行说明的范围不限于对个人信息处理规则的解释,还可能包括公平性解释(如决策机制公平性以及结果公平性)、影响性解释(包括决策如何影响个人以及广泛社会群体、为减轻其所可能带来的负面影响而采取的纠正机制等),甚至包括可修正自动化决策的路径等。因此,法律赋予个人对自动化决策的解释说明权,是为个人提供知情权与必要干预路径的双重权利构造。

最后,目前个人信息主体对自动化决策要求解释说明权的触发条件尚不明确,更遑论个人主张自动化决策解释权行权机制的合理性。我们理解,自动化决策可解释权的适用机制需综合考虑企业商业效率与个人权益救济的衡平,未来进一步细化相关行权机制时可能需要进一步讨论个人信息主体是否应当承担一定的举证责任,个人信息处理者是否有义务停止相应自动化决策机制的使用,以及个人信息处理者向个人信息主体提供解释说明的期限以及可验证性要求等。


(2)拒绝自动化决策权

《个人信息保护法》第二十四条第三款通过法律确定了个人信息主体的拒绝自动化决策权,具体而言,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定,但该条款的落地性与实操性亦有待进一步商榷。

一方面,无论是基于数据库编码的计算机自动化,还是基于机器学习的算法自动化,现有自动化决策机制可能无法彻底避免人工的介入,而目前立法规定个人仅有权拒绝“仅通过自动化决策的方式作出决定”,那么个人信息主体对于自动化决策的拒绝权可能面临着被架空的风险,而难以为个人信息主体权益提供切实有效的保障和救济。另一方面,拒绝自动化决策权的行权条件亦具有讨论的现实意义。如前所述,如何界定“对个人权益有重大影响的决定”仍有待商榷,但至少可以明确的是,“重大影响”的认定不应完全采取主观标准进行事前判断,相反个人信息主体在不公正的决策结果产生外部性后,方可行使拒绝自动化决策权,可能更为符合立法者为个人信息主体提供不再因自动化决策而遭受合法权益侵害的退出路径的立法目的。此外,拒绝自动化决策权、拒绝他人处理个人信息的权利以及个人信息可携权之间的适用关系可能也是未来自动化决策监管机制可能的细化方向。

三、给企业的建议

可以预见在《个人信息保护法》生效后,监管部门对于自动化决策算法的监管进一步有法可依,产品用户维护个体权益亦将持有法律的武器,而对于企业而言无疑将面临更严峻的合规考验。因此为降低相关合规风险,我们建议涉及自动化决策算法应用的企业关注以下合规要点问题:

(一) 确保数据来源合法合规

在自动化决策算法研发与应用过程中,往往涉及大量数据的收集与使用,企业为了提升算法的准确性与有效性,往往需要通过产品直接收集大量个人资料信息、设备信息以及使用行为信息,或通过第三方间接获取大量标签信息。而数据作为算法演练与后续应用的基础,如相关数据来源合规性存在瑕疵,将不可避免地使得整体业务模式的合规性存在较高风险。因此,为确保整体业务模式的合规性,企业应首先确保数据来源合法合规。具体而言:

  • 针对直接从用户侧收集使用的数据:如无法基于《个人信息保护法》第十三条(一)之外的条款建立个人信息处理的合法性基础,则企业需要通过隐私政策披露等方式就个人信息的收集及后续使用获取用户同意,以构建收集相关信息用于自动化决策的合法性基础;

  • 针对间接从第三方获取数据:建议企业在开展合作前,对于第三方数据供应商进行全面评估,就供应商资质、数据安全能力、是否存在任何不良记录进行尽调,要求对方提供数据来源合法合规的相关证明,并签署关于数据来源合法合规的相关承诺,从而尽可能规避因数据来源瑕疵而引发的合规风险。

(二) 评估将数据用于自动化决策的必要性

根据《网络安全法》第四十一条所确立的个人信息收集使用“合法、正当、必要”的原则,企业在算法研发应用过程中,除满足上述合法性要求外,还应满足数据收集使用的必要性要求。尽管我们理解企业为提升算法推荐的精准度实现“千人千面”,往往需要收集海量个人信息用于算法研发、精准画像,而从业务角度出发,各类信息的收集使用均具有其必要性。但从目前监管实践来看,如收集个人信息的类型与实现产品服务的业务功能缺乏直接关联、频次过高或数量过多均可能被认定超出收集个人信息的必要范围,从而引发合规风险。因此从合规角度出发,企业仍应建立针对信息收集使用的必要性评估机制,从用户侧角度评估将信息用于算法研发、精准画像的必要性,并重点关注监管目前可能重点关注的字段类型,如应用列表信息、设备标识符信息(包括但不限于IMEI、Android ID、IDFA)等。

(三) 事前进行个人信息安全影响评估并留存相关记录

参照《个人信息保护法》第五十五条的要求,个人信息处理者如涉及利用个人信息进行自动化决策应当事前进行个人信息保护影响评估并对处理情况进行记录。因此,企业在产品规划设计阶段或首次使用前即应参照《个人信息保护法》第五十六条以及《个人信息安全影响评估指南》(GB/T 39335-2020)的要求开展相关评估并留存相关记录,评估点应至少包括但不限于以下内容:

  • 是否向用户说明了自动化决策的基本原理或运行机制;

  • 是否定期对自动化决策的效果进行评价;

  • 是否对自动化决策使用的数据源、算法等持续优化;

  • 是否向用户提供针对自动化决策结果的投诉渠道;

  • 是否支持对自动化决策结果的人工复核。

(四) 将合规要求纳入产品设计环节(Privacy by Design)

鉴于《个人信息保护法》以及相关国家标准、指南为进一步保护用户权益,均要求产品服务提供者向用户提供不针对个人特征的选项,为避免产品研发后为满足合规要求重新对产品功能模式进行调整从而造成不必要的资源浪费与时间拖延,我们建议企业在产品功能设计环节即对于相关服务类型或算法类型涉及的个人信息保护、消费者权益保护要求进行全面梳理,并参考相关要求进行产品功能设计。例如参照《信息安全技术 个人信息安全规范》的要求,企业产品如在推送新闻信息服务的过程中使用个性化展示的,则应在功能设计时,即考虑为用户提供简单直观的退出或关闭个性化展示模式的功能,而当用户选择退出或关闭个性化展示模式时,应在界面内为用户提供删除或匿名化定向推送活动所基于的个人信息的选项。

(五) 建立畅通权利响应渠道,并确保能够响应权利请求

为确保满足用户对于个人信息处理以及产品服务自动化决策机制的相关权利请求,企业宜建立畅通的权利响应渠道,及时响应用户各类权利请求。同时考虑到用户可能要求公司就产品相关自动化决策的公平性、合理性等问题进行解释说明,我们建议企业提前准备相关算的法可解释性文档或应答话术,确保相关客服人员能够准确应答用户请求,保障相关用户的知情权。

(六) 积极关注算法监管领域相关立法动态

伴随《数据安全法》《个人信息保护法》相继发布,针对算法相关立法工作也在有条不紊地开展,2021年8月27日,《互联网信息服务算法推荐管理规定(征求意见稿)》正式发布。尽管相关规定仍处于征求意见阶段,但可以预见未来对于算法的监管将从对于算法问题所凸显的法律价值层面的监管渗透到对于算法应用过程的技术性监管。因此,企业在自动化决策算法的研发使用过程中,除需满足个人信息保护领域相关合规要求外,还应进一步关注算法监管领域的合规要求。具体而言,企业一方面应确保相关算法满足“公正公平、公开透明、科学合理、诚实信用以及内容向善”的基本原则,同时对于特定类型算法还应确保满足相关具体规制要求;另一方面,企业还应关注并及时响应网信部门对于算法的分级分类、备案、安全评估、配合检查等各类监管要求。

四、结语

维真德在《数据为民》一书的开篇提出,“时间已经认识到,隐私和自主不过是一种错觉。”[9]回看近年来自动化决策技术的滥用现象,不料竟一言成谶。《个人信息保护法》对于自动化决策的滥用现象予以积极的回应,并对于互联网市场竞争主体如何合法合规运用自动化决策机制提供了重要指引。值得注意的是,自动化决策的法律规制并不是为了阻碍大数据技术的发展,相反,合法正当和必要范围内的自动化决策机制的使用始终可以为商业与法律制度所接纳。尽管数字市场发展未必尽善尽美,但合理应用自动化决策技术始终是企业应对算法监管所必需遵守的底线,勿让被滥用的自动化决策技术成为智能时代的弗兰肯斯坦。

未来,我们将继续关注自动化决策机制可能的法律监管思路与实现路径,与大家共同探讨自动化决策规制如何与个人信息保护的整体监管机制进行有机联动,秉承着科技向善的愿景和使命共同构建向上向善的网络“熟人社会”,让知我者,知我所求,也谓我心忧。


向下滑动阅览

脚注:

[1] VIKTOR MAYER-SCHÖNBERGER: “Delete: The Virtue of Forgetting in the Digital Age”, Princeton University Press, 2009.

[2] Geoffrey G. Parker & Marshall W. Van Alstyne & Sangeet Paul Choudary:《平台革命:改变世界的商业模式》,志鹏译,机械工业出版社,2019年。

[3] 薛军:《大数据杀熟的是与非》,载“法治日报”,http://views.ce.cn/view/ent/202010/21/t20201021_35915415.shtml 最后访问日期:2021年9月12日。

[4] 同上注[3]。

[5] 王政红,严洁:《合同法中显失公平制度探析》,载“中国法院网”,https://www.chinacourt.org/article/detail/2013/11/id/1149128.shtml ,最后访问日期:2021年9月13日。

[6] 崔建远:《合同法总论》(上卷),北京:中国人民大学出版社,2011年版。

[7] 《App违法违规收集使用个人信息行为认定方法》:三、以下行为可被认定为“未经用户同意收集使用个人信息”:…6.利用用户个人信息和算法定向推送信息,未提供非定向推送信息的选项…。

[8] 张凌寒:《商业自动化决策算法解释权的功能定位与实现路径》,载《苏州大学学报(哲学社会科学版)》,2020年第2期。

[9] Andreas Weigend, Data for the People, How to Make Our Post-Privacy Economy Work for You, Basic Books, 2017.




本文作者

宁宣凤

合伙人

合规业务部

susan.ning@cn.kwm.com

业务领域:反垄断与反不正当竞争,以及网络安全与数据合规


在反垄断领域,宁律师所提供的法律服务内容主要包括经营者集中反垄断申报、应对反垄断行政调查、反垄断法合规咨询以及反垄断诉讼。早在2008年《反垄断法》实施之前,宁宣凤律师就曾积极参与政府起草该项法案的咨询工作,并在该法颁布后,继续积极参与协助相关条例、实施办法及指南的起草工作。在网络安全与数据合规领域,宁律师曾为多家国内外知名企业提供数据合规尽职调查、风险评估、合规体系建设等法律服务。作为国内最早涉足该类法律实务的律师之一,宁律师在为客户提供网络安全与数据合规法律咨询服务方面有着丰富的经验。

吴涵

合伙人

合规业务部

wuhan@cn.kwm.com

业务领域:网络安全、数据合规与治理


吴律师主要协助企业在数字经济转型期发挥数据驱动力,实现数字化转型、数据商业化及智能化应用。具体包括协助客户制定修改隐私政策、算法可解释性声明,制定跨境数据传输计划,制定数据商业化合规方案,搭建算法治理体系,梳理企业数据(包括个人信息保护)合规体系,进行网络安全和数据合规自查,协助搭建数据融合的商业及合规框架,构建企业数据资产体系等。吴律师擅长从中国合规的角度为跨国企业在中国的分支机构提供网络安全、数据治理及智能合规意见。同时吴涵律师能够立足中国相关法律法规,为中国走出去企业建立符合欧盟(GDPR)及美国(CCPA)等跨司法辖区要求的网络安全、数据合规及智能化监管体系。项目覆盖金融、保险、健康医疗、人工智能、网约车平台、航空、消费电子、互联网广告、汽车、电商等多个行业。

潘驰

律师助理

合规业务部

姚敏侣

律师助理

合规业务部

感谢实习生蒋雨琦对本文的贡献。


责任编辑:单珊

编辑:魏雪婷

网络安全、数据合规与治理团队专题


人工智能:

数据合规:

网络安全:

我知道你  在看  哦


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存