站内搜索

数字时代下算法滥用法律治理之完善

  算法作为数字时代技术基石深入应用于社会生活的各个方面,随之而来的算法滥用现象则有碍社会公众的数字参与程度和数字经济的健康发展。算法滥用表现为侵蚀数据主体平等的算法歧视、揭露数据主体隐私信息的算法自动关联和压缩数据主体意思自治空间的算法自动决策。现行调整算法行为的法律制度存在有关法律概念界定不清、法律规则零散以及法律治理理念滞后等问题,难以从根本上遏制算法滥用以保护数字主体合法权益。立足于技术中立的基准,正视科技与法律之间的互动关系,建构数字时代算法滥用治理体系,应当厘清算法法治理念,架设数据保护官制度,完善个人权利配置。

一、问题的提出

  算法是数字社会发展的技术基石,社会生活数字化使个人信息数据纳入算法过程成为必然现象,如果说个人信息采集是数字经济社会运行的“能源燃料”,那么算法对信息的筛选、分析及加工能力便是其发展的“动力引擎”。然而,在对个人信息数据进行价值提取的过程中,算法模型因其开发者或使用者所欲达成的特定目的、个体利益最大化的自利性考量以及因信息不对称产生的优势地位等,极易产生具有法益侵犯性的负外部效应。与此同时,侧重于数据采集环节建立的现行个人信息数据保护制度面临着难以消除算法滥用现象,其衍生的风险将对数字主体权利保护带来冲击与挑战。现行个人信息数据保护采用“人格权+隐私权+自决权”模式,其无法有效治理算法滥用。

  其一,对算法滥用行为的治理缺乏整体性思维。现代社会人文社科制度通常因自然科学领域的技术创新而改变,为确保以算法技术为发展动力的数字经济社会秩序的稳定,立法部门相继出台或公布了《中华人民共和国网络安全法》(以下简称《网络安全法》)、《中华人民共和国数据安全法(草案)》(以下简称《数据安全法》)、《中华人民共和国个人信息保护法(草案)》(以下简称《个人信息保护法》)。虽然众多的规范性文件以及高度密集的出台时间传递的信息是立法者对于该问题的重视程度,但是通过“以量取胜”的做法意图编制一张严密的治理算法滥用的法律网,不仅难以实现治理效力与效果的有机对称,还有可能会导致数据主体面对算法滥用风险失去预测和评价的能力。

  其二,有关算法滥用及相应权利保护的法律规范存在概念界定不清晰、适用范围模糊等缺陷。例如,依《网络安全法》第41条,网络运营者应负何种程度的公开和明示义务?该公开和明示义务是否应达到足以信息被收集者所了解的程度?再如,《中华人民共和国民法典》(以下简称《民法典》)第1032条所列举的“刺探、侵扰、泄露、公开等”侵害他人隐私权的方式是否涵盖数字企业的算法行为?此外,如何理解《数据安全法》第29条所载“正当的方式”和“其他非法方式”?

  其三,算法滥用治理缺乏针对性的事前预防制度安排。相较于数字企业,分散的数字用户处于经济、技术和信息方面的弱势地位,在遭遇算法滥用导致的权利侵害时,其往往止步于高昂的事后救济成本,以致传统的事后侵权救济制度在一定程度上成为束之高阁的维权方案。[4]此外,尽管出台或公布的上述法律及草案规定了算法使用者若干义务,但此类义务具有零散和缺乏针对性等特点,有碍算法侵权纠纷的法律解释与适用,且有导致规范冲突等法律漏洞之嫌。针对算法滥用的事前预防制度,如欧盟的“数据保护官”制度,则具有社会成本与收益方面的合理性以及立法技术层面的优越性。中国现行法律中算法滥用事前预防制度的缺失在一定程度上反映出在以算法为核心的数字时代下法律的滞后性。

  上述问题的根源可归结为两点:第一,在规范对象方面,现行法律对数字时代中算法滥用的本质及其表现形式界定不清;第二,在规范方式方面,现行相关法律规则存在零散、滞后和不周延等漏洞。因此,对算法滥用进行类型化分析,并在此基础上提出算法滥用法律治理之完善措施,是法律回应数字时代需求、妥善处理算法滥用问题的首要任务。

二、算法滥用的类型化分析

(一)算法歧视:“个别规则”侵蚀数据主体平等

  算法在数字经济社会深入应用所应当具备的品质,不局限于其经济效率性,更在于辐射公众切身数据利益的算法过程拥有较强的客观公正性,以及人们在该过程产生的不受歧视的信任与期待。现代社会中,算法逐渐定义着人们的能力资质、信用状况等诸多方面,其还决定着人们购买商品和接受服务的价格、能够获得的贷款额度等,乃至在刑事领域中影响到犯罪嫌疑人的量刑。遗憾的是,算法决策的客观公正性并非完全如人们所预期,其本身存在着天然的歧视性。美国白宫于2016年5月发布的《大数据报告:算法系统、机会和公民权利》指出,算法歧视性因素主要产生于两个阶段:一是其对数据主体个人信息进行筛选时,输入算法的数据资质阶段;二是算法对个人信息数据的分析、加工时,算法自身的工作运行阶段。总而言之,算法歧视是人为因素下的算法模型设计、数据输入偏差,或算法运行、优化过程中产生的突发性偏见分别或排列组合所诱发的结果。一旦算法用于定义人们的能力、信用,或当算法对人们的行为进行预测、推断之时,便具有歧视性,极易在数据主体平等方面产生侵害风险。其原因包括:

  第一,算法产生的“个别规则”突破了法的一般性。法的一般性反对以个别化的方式进行规则建构,要求法律应当在各调整对象之间实现平等适用,而算法过程则表现为对部分数据主体适用的“个别规则”。“个别规则”源于算法能够将每次接收的初始数据作为其本身的学习资源,并可根据先前计算结果基于最新接收的数据随时完成动态预测,而根据该预测结果用于定义人们行为的过程便可看作对“个别规则”的执行。值得注意的是,法律确保平等的关键在于,“凡为法律视为相同的人,都应当以法律所确定的方式来对待”。换言之,传统社会中相同数据主体在同等条件下,法律对其予以相同或相似对待,但在算法的动态预测前提下,其按照预先设定的目的、根据个人数据特征进行差异化甚至是歧视化的评价与安排。

  可见,算法区别对待数据信息是其固有的技术逻辑,由此引起的区别对待和个别规则与作为一般规则的法律规范之间存在天然冲突,经法律评价为境况相同的数据主体因此面临着因算法异质评价遭受歧视性对待的风险。例如,在司法领域中,法官通过犯罪预测系统的再犯预测结果针对再犯者来量刑;互联网金融平台可能因某一数据主体近期的一次违约行为对其贷款设定较高的利率。此外,在传统工农业社会中,歧视具有较强的辨识性,而在现代数字经济社会,算法歧视高度隐秘,有时甚至难以察觉。算法模型设计的初衷便在于效率及利益最大化,从而忽略对平等价值的考量。总而言之,算法通过其预设目的及复杂运行过程,进一步加大了对数据主体适用规则的个别性与歧视性,对法律规范的一般性特点及其所追求的平等价值提出挑战,使数字社会受制于一套额外的、非经立法过程的且以实现私人利益最大化为目标的规则体系。

  第二,算法产生的“个别规则”将加剧数据社会中的实质不平等现象。法律对实质平等追求的意义在于防止人与人因事实上的差别成为法律规定差别待遇之根据,仅依赖于法律的一般性无法实现对弱势地位群体差异性待遇的自治性纠正,难以确保社会弱势群体的平等地位。其原因在于,法律的一般性忽略了不同社会主体在能力、智力、生活水准等方面存在的差异,在同等社会环境下,弱势群体具有的形式上的权利平等无法矫正或改善其实质上的不利地位。随着实质不平等现象的加剧,社会贫富差距将过度加大进而引发社会的极度分化。

………………

  数字时代下算法滥用法律治理之完善 PDF 完整版下载(文字可复制):

https://www.aliyundrive.com/s/vb5cE3ZrTfq
提取码: 53sf
Copyright © XiakeShu.com 版权所有 | 备案号:浙ICP备11004787号-12