算法行政的兴起、挑战及法治化调适
2021-07-05 09:42:59
  • 0
  • 0
  • 7

 电子政务杂志   原创 王贵

摘 要:算法及算法权力已经渗透入社会生活的方方面面,技术进步带来的变革、防范化解社会风险的实际需要以及实用主义功能导向,也共同催生了算法在行政规制领域中的接入和运用。算法行政对行政法治带来的冲击和挑战也不容忽视,算法权力在行政规制中的扩张及其异化,撼动了行政基本原则的运转根基,导致“权力-权利”格局的变动和失衡,弱化了个人信息的保护。因此,必须将算法行政置于法治的框架内予以审视,以规律性的视角、辩证的思维、包容审慎的理念对算法行政予以法治化调适,回归和重申行政基本原则,重视个人信息权益保护,实现算法行政中权力与权利之间的动态平衡。

关键词:算法行政;行政规制;行政法治;个人信息保护

DOI:10.16582/j.cnki.dzzw.2021.07.001

一、问题的提出

当AlphaGo、自动驾驶技术、智能识别等进入公众视野并被广泛应用,不论主动或者被动,社会已被卷入人工智能时代的浪潮之中。在这个过程中,智能算法以机器深度学习为基础,以大数据为支撑,自主学习与决策的能力日益增强,超越了原本以计算机程序为主要载体的形式,深度融入和影响经济社会生活的方方面面。

从商品投放到广告推送,从自动出行到精确导航,以及经济领域的商业运营,都潜藏着算法的影子,“生活要素数据化、互联化、智能化”[1],我们正在进入互联网、大数据及算法相互交织的新技术时代,逐渐成为由算法“规训”的社会。[2]“如果所有算法都突然停止运行,那么就是人类的世界末日。”[3]3

与此同时,算法因其在迅捷处理信息、提高行政效率以及在一定程度上保障社会福利和优化治理能力等方面的作用,也被逐渐应用于现代行政规制领域中,比如治安风险预警、行政信用评级、行政自动化决策、“秒批秒办”等。尤其是伴随着2020年新冠疫情的爆发,健康码的大规模推广应用,更是算法融于行政规制全过程的典型范例,算法行政格局已然形成。

然而,算法在行政规制中的实质性运用,并不能必然表明其在理论和规范层面的合法性。当算法、人工智能强势融入社会生活和行政规制,撼动奠定法治基石的公平、自主、隐私、尊严等精神时,我们不能仅仅被动地予以回应,更多应该用现代法治理念进行反思,审慎应对算法行政对行政法治带来的挑战,厘定算法行政的合理化边界及法治化调适方案。

二、算法与算法权力的提出

现代算法通过计算机、二进制作为载体和运算计划,发展出多种算法模式,并广泛应用在排序、匹配、加密等多种途径;简言之就是以数据输入为基础,经过已设定的若干步骤,得到输出的结果。[3]78,132具体来看,算法通过算法设计和算法部署应用两个步骤来影响个人和社会,设计者编写算法决策代码,再输入适量数据使得算法能够自主学习,并不断优化决策流程;相关企业再在其自身平台上应用算法,广大用户在使用平台的过程中就会受到算法的影响。[1]在这两个步骤中,设计者和相关企业对于算法具有较强的控制力,在很大程度上可以预测算法决策结果并对其进行解释。但是,技术的快速发展,使得智能算法自主决策的属性大大增强,其依赖海量的数据进行自主学习,生成不再完全依赖于设计者的决策规则,智能算法已不再是单纯的技术工具,而逐渐演化为复杂的自主性体系。在自主性体系中,以大量数据为支撑,算法持续运算、训练、学习,应用场景日趋广泛、多元和完备,逻辑体系和主体理性逐渐增强,乃至可以摆脱人工干预和纠正,就能自主独立完成任务,并进行模型修正和自我完善。[2]

更为重要的是,算法也依靠自身优势,嵌入社会权力结构,影响和改变着社会运行和社交方式,成为调配社会资源的一种重要新兴力量,构成“算法权力”[4]。具体来说,人工智能时代的数据兼具自然属性与社会属性,既是算法运行的对象,同时也是社会利益的载体;人类无法应对海量的数据计算任务,而算法可以运用机器优势实现,算法对数据占有、处理和进行结构输出,可以演变为一种资源、商品、财产亦或是社会建构力量。[5]其次,算法也能演变为行为规范,在很大程度上影响甚至控制个体的行为。算法在人工智能时代搭建了诸如社交应用、电商平台等多种类的复杂生态系统架构,用户在经过形式上的“通知-同意”之后进入系统架构中,在系统中的行为均会受到算法约束;算法将收集的用户数据,通过不同系统架构间数据共享的方式,实现内在延伸和扩张,系统性地影响用户,即算法的架构优势。例如淘宝利用优势将用户基础扩展到支付宝及阿里巴巴旗下其他应用,微信之于腾讯系亦同。再次,算法还具备嵌入优势,借助资本力量,通过平台嵌入社会微观运行之中,实时干预人的行为,对社会进行引导、干预或者改造。而算法的不透明性和一定的不可控性,使得算法对人的影响更为无形和难以侦测,也加剧了算法的权力化趋势。可以说,算法已经足以具备对人有影响或者支配、对资源进行调动、对社会持续影响的能力,在事实上形成一种技术权力。

三、算法行政兴起及其实质化解读

算法权力的扩张早已不仅仅局限于经济或者商业领域,深度学习算法在国家与社会治理中得到更为广泛的场景应用,算法与行政规制结合的算法行政格局日益形成。上文提到,算法具备架构优势和嵌入优势,利用系统架构持续收集信息和数据,并进行数据的高速计算,与行政规制延伸有高度的契合性,能够有效增强公权力运行的深度、广度和效率。基于此,在算法时代,行政领域已广泛运用算法进行事实认定,依靠算法作为行政决策的辅助,甚至直接替代行政权作出具有行政效力的算法决策。例如,智慧交通体系中的交通监控,算法就可以对监控捕获的交通违法行为进行处罚,作出具体行政行为;或者依靠算法大数据和人脸识别,识别违法行为。[6]算法还可以基于行政主体监管需求,量身设计满足治理需要的具体化场景应用规则,以较小的监管成本应用于大规模的监管对象,提升行政规制效率。如在无人驾驶技术中预先写入代码,设定限速范围并考虑用户驾驶习惯,就可以事前禁止超速行为。[7]

算法与政府行政规制相互导入、融合的情形,有学者称之为“算法治理术”(algorithmic governmentality),实质上可转译为算法行政,即数字社会中由于算法引起的行政权力运行方式和规制模式的变革。[8]在数字社会,国家治理不再仅仅依靠政治和经济手段,而是通过数字技术和算法进行自动化操作和决策,该种规制模式可称为算法行政。[9]基于数据的收集与存储、数据的挖掘和处理并分析数据之间的细微关联、利用概率统计进行行为的关联和预测三个阶段,算法行政根据不同实际需求,对三阶段排列组合或融合,进行大数据的自动收集、汇总和分析,产生某种类型的规范或政治理性,从而预测、影响乃至建构相关主体的可能行为。[1]

算法行政的兴起除了因技术变革带来的红利之外,还有其深刻的社会背景和明显的实用导向。伴随着全球化和现代化进程的不断推进,科技发展日新月异,人类社会持续进行着深刻的系统性结构转型,进入高度不确定和复杂的“全球风险社会”时代。对我国来说,由于经济发展中存在不协调和不可持续等现象,传统发展方式问题显现,服务型政府正在构建且尚未完善,均考验着政府的治理水平和治理能力,“社会系统转型与快速发展催生出风险社会的中国形态”[11]。习近平总书记提出“必须把防风险摆在突出位置”。基于此,党的十九届四中全会专门研究推进国家治理体系和治理能力现代化,增强各级政府防范化解风险的能力。而人工智能时代的到来,为传统行政主导型社会治理模式的转型提升提供了契机,算法、大数据等现代科技手段越来越多地运用于行政规制领域,以消解日益增长的治理压力,应对风险社会的治理挑战。

食品安全一直是问题频发并危及公民身体健康的领域,对行政监管和规制形成较大压力,上海市就探索将算法智能分析系统应用于食品安全监管领域,识别食品安全违法行为,促进监管效能的提升。[12]北京通州在环境监管中运用算法平台,提高监管效率和环境污染治理能力。[13]社会治安领域也广泛运用算法,以强化智能风险管理预警和决策。[14]特别是在应对防治新冠肺炎突发疫情时,因为传染病的突发性、隐蔽性和高度的传播性,只有在行政机关充分掌握有效信息,能够扮演信息中心角色并充分采集、储存、分析信息时,才能实现有效的决策、实施可行的措施。[15]在这种背景下,政府与企业联合推动健康码的广泛使用,利用算法搜集数据并进行分析预测,健康码所承载反映的信息,也成为判断隔离、使用公共交通工具、进出公共场所、复工复产的重要参考,为疫情联防联控提供支持。[16]可以说健康码在行政主导的疫情防控中的运用,既是公私合作的表现,也是算法行政具现化。[17]从这个角度看,算法行政的兴起具备深厚的现实土壤,是技术发展与行政规制提升两者相互融合促进后的必然产物。

另外,算法行政日益扩展也源于行政主体、监管者对算法治理的实用主义功能期待。[18]首先,算法在行政规制中的应用能够促进治理效率的提升。在现实的行政规制场域中,执法机关往往因有限的执法资源和传统执法方式,导致行政违法行为难以高效、全覆盖发现,执法效率不高;而算法的加入,能够有效节约执法成本,以较低的边际成本发现、识别、判定更多的违法行为,提高执法效率。其次,能够促进行政规制的精准性。算法建构的系统架构能够快速收集各类信息和数据,并进行挖掘、分析、建模,筛查出行为对象的行动轨迹、位置、行动偏好、历史动态等信息,描绘行为主体的“用户画像”,实现较为精准的预判和精准应对。最后,有助于在一定程度上提升行政规制的公正性。在行政规制过程中,行政主体不可避免会受到自身情感、性格、人情关系等因素的影响,导致决策过程中的偏狭、局限、故意,影响行政决策的公正性;而算法模型在一定程度上能够保持相当的“技术中立”,排除非理性因素影响,客观地进行自动化决策,减少行政规制中的恣意和专断,保障公平公正的规制效果实现。

四、算法行政对行政法治的冲击与挑战

人工智能时代的到来,作为技术的算法和作为制度的法律二者在何种程度上相互影响、如何互动,法律如何应对算法的“攻城略地”,已成为法律界关注的热门问题。[19]算法行政的兴起有深刻的社会背景,同时又因其实用功能受到推广,但是算法行政中算法权力扩张和异化风险不容忽视,其对行政法治、经典行政法治原理带来的冲击须审慎应对。

(一)算法权力在行政规制中的扩张及其异化风险

毋庸置疑,将算法嵌入行政规制中带来诸多优势和便捷,但犹如硬币之两面,由此扩张带来的异化风险也不容忽视。算法具备系统优势和嵌入优势,建立系统架构,可以搜集并分析大数据,通过视频监控、DNA采集、人脸识别、人群分析等手段,在行政执法的事实认定层面起到协助作用。更进一步,算法还会融入行政规制中的法律适用层面。应该说,智慧法院的建设迈出了算法融入法律适用的第一步,目前,已经能够利用算法辅助证据审查、类案查找比对,帮助梳理法律关系、作出裁判建议、生成司法文书。[20]在行政执法上,人工智能和算法在行政法规适用层面上衔接应用的趋势也在增强。[21]目前,在行政规制中,尽管多为利用算法辅助事实认定和法律适用,但是算法实质上却具有独立的影响力。算法系统在决策中会使用所谓的“超级推理”,以微妙而有效的方式塑造使用主体的行为和感受,消减主体的独立判断能力。[22]行政主体在形式上的参与也可能无法掩盖算法系统独立作出决策的事实,因为“自动化偏见”十分容易影响到行政主体,即便意识到另有选择,但很可能会服从算法的判断。[23]而从更宏观的角度看,算法甚至有主导政策议程、控制政策执行的权力。[24]传统上政策制定是由行政主体依据对社会问题的感知、界定、转化,考量价值判断和相关利益衡量后作出选择的结果。可以说政策制定的前提是对社会问题的有效识别和准确界定,相关联的数据和信息获取占据关键环节。而智能算法可以在数据获取和分析环节发挥全面、高效、精准的作用,为政策制定者选择或设计政策方案、评估方案成本收益等方面提供重要参考,行政主体对算法的认知也可能会慢慢从辅助决策变为依赖算法决策,政策制定权逐渐“从人手中转移到算法手中”[25]。算法在行政规制中的深度应用,它的深度学习水平和便利化程度与日俱增,也会导致行政部门及其工作人员对算法的依赖性增强,成为政策执行的主要工具,导致算法与人的关系反转,在一定程度上成为行政权力的实际分享者或拥有者。

此外,算法还具备自我实现、即时实现的特点,执行程序一般相对简单,有效识别冗余环节,以远超人工的效率完成公文流转程序;[26]实现时不需要人工的干预,就能够即刻执行,有效避免滞后或延期,时效性高。比如在行政许可领域、优化营商环境方面所作出的“一网通办”或“秒批秒办”[27],实质上就是由算法根据自身系统架构作出的即时生效的具体行政行为;随着算法生态的复杂化,由算法描绘合成个体的数字化个人镜像,形成所谓“数字人格”,更为精确判定个人社会信用,进而实质上拓展算法行政的适用空间。[10]从这个角度来说,算法不仅仅在行政规制中扮演辅助者的角色,还逐步扩张并在某些领域取代行政权,变成决策者或直接的执法者。

算法权力在行政规制领域的扩张,也伴随着其在运行过程中的异化风险,撼动行政基本原则,对依法行政、行政公开、行政公平、正当程序原则均有所消减和影响,并实质上弱化个人信息保护,影响“权力-权利”格局的平衡。

(二)算法行政对行政基本原则的撼动

⒈算法行政对依法行政原则的消解

依法行政是行政法治的首要原则和基本要求,意味着“法无授权不可为”,表明行政权力的行使必须在法律的框架内运行,受到法律的严格约束和限制。上文已经提到,算法在某些领域和某种程度上,已超越其辅助者地位,不需要人的介入和干预,能够自主作出决策或具体行政行为。也就是说,原本由规制主体或执法者依据法律作出决定或行政行为的过程,变成了算法依据代码或内在程序自行决策的过程,代码或者程序取代了法律的功能,由法律统治下的法治政府,可能演变为算法统治下的政府。对于原本就有较高自由裁量权的行政规制领域,算法的参与或者主导,依法行政原则受到冲击并不严重;而对于原本被法律规则严格限制行政主体裁量空间的行政规制领域,如果采用算法自动化决策,就极有可能侵蚀乃至取代法律对行政的控制,“法律的统治”异变成“算法的统治”,动摇或者弱化现代法治政府的根基。[28]

⒉算法行政可能影响行政公开原则的实现

行政公开原则是确保现代政府公开透明、保障法治政府建设的重要指标,有利于促使政府权力在规则的轨道上运行。但算法在行政规制领域的应用却可能会与透明政府建设相背离,其关键原因在于算法的不透明和模糊性,构成所谓的“算法黑箱”。在智能算法中,通常是从数据输入到结果输出,在输入输出之间存在一个常人难以获知的“隐层”(hidden layer),这种“隐层”就是“黑箱”(black box)。[29]而又因为商业目的或国家秘密的原因,算法系统开发者往往不会向公众公开算法的运算过程和细节,再加上算法技术本身的复杂性又阻碍了公众对其主动认知,加剧了算法决策过程中的不透明性。[30]“黑箱”一词本身也表明人们对将涉及自身权益的决策赋予不透明的算法的担忧,对不可控风险的警惕。[31]算法渗透入行政规制领域,借助算法模型,行政过程可能在更加高度隐秘的状态下进行,并作出影响相对人权益的行政行为,加剧了这种不可知的风险。公众更加无法知晓行政决策过程和依据,却要接受算法模型生成的决策方案,“使用隐藏的算法进行那些我们无法理解的论证,不断给出可以决定我们生活的得分”[32]189。公众监督沦为空转,行政行为缺乏传统行政公开原则要求的透明性和可解释性,导致合法性危机。有学者表示:“缺乏透明度也威胁着政府的合法性……算法的不可理解性意味着无法确认政府行动者是否遵守规则。一系列实证研究表明,个人更可能接受一个他们认为过程公平的政府为合法政府。预测分析及其‘黑箱化’的决策过程由于无法解释其结果而破坏了这种认知。”[28]

⒊算法行政对行政公平原则的侵蚀

上文提到算法在一定程度上有助于提升行政规制的公正性,但是犹如“光明下的阴影”,算法同时会对行政公平原则的实现带来障碍。一般来说行政公平主要基于形式公平,辅以实质公平。法律强调人人平等并排除种族、肤色、性别等因素的影响,构筑一张“无知之幕”将影响公正的因素排除出去,实现形式上的公平;再针对个别实质上的不平等,以差别原则和对应的制度设计,予以制度调整,实现结果上的正义,这也是罗尔斯为现代行政法治所描绘的“公平”场景。而算法行政却会打破甚至颠覆这种理想图景。利用算法架构和模型,依据能力、偏好、职业、性别、生理禀赋、性格特征等因素,对个体进行紧缺“分拣”和全景画像[33],精确分类到特定的类别并被“评分”,最后根据分数来影响或决定个体的未来生存境遇。那么原本覆盖在每一个个体之上的“无知之幕”被揭开,行政主体得以根据算法的评级和定位,作出针对个体权益的决策,似乎是越过形式公平而直接达到了“实质公平”。但这种“精准”决策本质上可能是一种差别待遇,个体被精准推测其在社会中的“地位”,并被进一步固化,“受优待和受歧视的群体主要是在计算的过程中才能被区分开来,法律将不再是为平等的人而撰写”[32]120。在实质公平角度,原本行政决策为保障个案公正,会要求在执法中考虑主体和案件的“相关因素”,相关因素一般在执法实践中是比较明确的,不涉及个人隐私或歧视性因素,属于因果关系之上的“相关性”;而算法模型的参与,海量的数据会将这种相关性无限放大,将原本实质不相关的因素纳入行政执法的考量中,不利于保护行政相对人的利益。

⒋算法行政导致正当程序原则的空置

正当程序原则要求行政主体在作出影响相关主体权益的行政行为或决定之前,应给予相关主体申辩、表达诉求的机会,行政主体也应当对作出的行为说明理由,并设置程序以保障。算法行政中行政决定可能是由算法自动生成,这种自动化决策具有即时性特点,在提升效率的同时也可能忽略公平,相关主体既没有时机也不能透过算法模型或架构参与到行政决策中,无法行使表达诉求和申辩的权利。算法决策的控制权由算法模型的开发者和使用者掌握,行政主体和相对人的控制权分布不对等,“公民将被测评,但他们不能反过来去评测那些评测他们的机构”[32]125。另一方面,算法行政中也会危及相对人或者利益相关方获得解释的权利。传统行政决定作出时,行政机关负有说理义务,向行政相对人和利益相关方阐明作出行政行为的事实和理由。在算法行政场景下,行政机关可能会主张行政行为是由算法自动作出的,因“算法黑箱”而不具有可解释性,或者以商业秘密或危及国家安全为由拒绝解释。

(三)算法行政下“权力-权利”格局的变动与失衡

行政法治的基本要义就在于限制行政权力,保证行政权在法定的轨道上行使,保障公民基本权利。[34]可以说行政法治的价值之一,就是构建一种行政主体与行政相对人之间相对稳定和平衡的“权力-权利”格局,促进社会稳定健康运转。“社会政治力量之间的关系潜藏在数据、算法之后,新型关系模式冲击着权力结构边界、权利行动的范围以及原有的社会规范。”[35]算法在行政规制领域中的引入,就会打破这种原本就稍显“脆弱”的平衡,造成“权力-权利”格局失衡。[36]

首先需要明确一个前提,算法的使用,既能赋能权利,也能够赋能权力,只是赋能权力的增量要超出赋能权利的增量,造成增量的不对称。[2]一方面,算法技术的进步、算力的提高,算法应用的日趋多元化和人性化,使得私人主体享有更多的权能和可能性来主张权利。算法及算法应用拓宽了公民获取信息知识、表达意见的渠道和途径,公民可以更为便捷地获取信息,减少查找成本;也可以利用算法渠道更快速地表达意见或者举报。相对应,行政机关能使用算法高效了解民众需求,快速回应并及时解决问题。另一方面,算法嵌入行政规制领域,大大增强了行政效率和行政精准性,主导能力更为凸显。公权天然具备权威性,能够更加容易地将算法运用在监管中,或者直接对算法系统研发者课以义务,而公众则必须接受政府所预先设计的算法规则,形成治理的算法化,实现权力自主、微妙地扩张。

权利与权力均会被算法赋权,而赋权导致的结果却存在失衡和不对等。算法帮助个人获取信息,但个体因自身知识、经济条件及技术所限,远远无法了解碎片化、大量数据背后的信息;而算法却能够精确分析数据,获取针对每一个个体的具体信息,算法了解个体,而个人无法了解算法。[37]在数据的利用上政府可以作为天然的数据收集者和信息控制者,更易开发、使用算法,政府借用算法收集信息的数量和质量、处理信息的力度与强度均有提升;而民众不具备独自开发算法能力和广泛利用能力。公权能更容易突破传统时间和物理空间上的限制,精确覆盖到每一个人的社会生活甚至每一个时刻和位置,造成算法对权力扩张的助力远高于对权利保障上的助力,使得行政主体与相对人之间的信息不对称、地位不对等的鸿沟加深。[38]

(四)算法行政下个体信息保护的弱化

在算法行政背景下,行政主体能够借助算法更为便捷地实现公民个人信息的大量采集,实现精准监测,甚至达到对个体行为和生活的全方位掌握和跟踪,个人隐私和信息保护的权利受到严峻挑战。下文以疫情防控中应用最广泛的健康码为例,审视算法行政下的个人信息保护问题。

健康码由个人申领,提交个人信息后,后台算法和人员根据信息进行健康评估和审核,发放不同颜色的二维码,作为政府管控、社区进行管理、个人出行和复工复查的重要凭证和依据。从行政法角度看来,健康码的生成属于算法行政背景下个人信息的自动化评级,由算法系统自动进行,针对个人的信息进行行政评级。[16]从过程上来看,健康码的运行却循环进行着个人信息收集与分析,时刻伴随着对个体的健康信息、行动轨迹、交往群体的记录和汇报。在健康码实际运行过程中,个人信息安全问题不断暴露,尤其是在疫情初期“一切为抗疫让步”的理念背后,存在着“重信息收集而轻信息管理保护”的倾向,个人隐私和信息管理保护一度被忽视。即便是后疫情时期,2020年底“成都确诊女孩”的个人信息也遭到泄露,自身受到网络暴力,给其身心造成巨大困扰和伤害,也引发公众对“战疫”中个人隐私和个人信息安全的担忧。[39]特别是在疫情常态化和健康码使用常态化背景下,这一问题值得警惕并慎重应对。在现代法治思维中,风险预防目的的合法性并不意味着风险处置手段合法,健康码手段的运用也应当经受合法性审查,在法律设定的边界内运转。

具体来说,算法行政下健康码对个人信息保护的限缩体现在以下几个方面。[40]

首先,对个人信息保护基本原则的违背。一方面在于知情同意原则沦为虚设,在个人信息处理中法律均将知情同意作为一般原则,比如《网络安全法》《民法典》等,但健康码实际运行中却未完全受到原则约束。健康码使用在实际操作中具有强制性,个人几乎没有空间决定是否提交个人信息;大多数区域的健康码申领规则和程序中没有设置知情同意和隐私保护规则。[41]此外,健康码背后的算法规则和系统也并不透明,赋码规则也不为公众知晓,存在赋码错误的情形,误判的情形并不鲜见,公众也无从提出异议。[42]另一方面在于最小必要原则被僭越。数据控制者应当针对为实现特定目的所必需的信息进行处理,并在目的达成后予以删除,这就是最小必要原则。但在实践中,健康码运行涉及政府、科技企业、基层单位和具体执行人的共同推进,多主体容易引发过度处理个人信息风险。目前各省市一般有各自主导的健康码,实践中也会存在“层层加码”的情形,重叠和“各自为政”加重了个人信息管理负担;健康码的开发依赖于科技企业,各地开发健康码的需求催生了诸多企业加入开发阵营,也意味着更多企业平台会接入个人信息,客观上增加了个人信息被泄露和不当处理的风险。另外,有部分地区对个人信息的收集和处理超出了必要限度。比如北京、上海要求个体进行面部识别、提交虹膜信息才能生成健康码,而武汉这种疫情严重的地区却无此要求,这明显超出了防疫必要。

其次,对个人信息权益侵害风险加剧。《民法典》正式确立了个人信息权益的法律地位。健康码作为强制性处理个人信息的行为,应当保持目的正当性和手段正当性,在限制个人信息权益时始终坚持审慎克制。实践中,由于健康码使用的便捷性,及其在社会管理和服务中的潜力,或者是受到启发,有地方政府以此为契机,试图升级健康码或者将其他内容嵌入健康码,典型的要数苏州的“文明码”和杭州的“变色码”。[43]尽管这两码因为受到广泛诟病而被暂停,但实质上体现了政府为了提升治理水平而忽视了个人信息权益的保护,是政府权力的一种扩张和“数字化延伸”[44],挤压了个人信息权益空间。这表明在算法行政格局中,行政主体具备更大可能、更多途径扩张权力作用的范围和空间,个人信息保护任务依然艰巨。

最后,个人信息更易被泄露。健康码收集的是个人较为敏感的信息,如个人身份信息、行动轨迹、旅行史、核酸检测结果,甚至人脸和虹膜信息,将诸多的信息聚合在一起集中管理,具有数据体量大、数据维度多等特征,并且还有若干科技企业参与健康码开发和维护,公众不知晓企业对个人信息使用的责任和边界,种种因素既增加了信息管理和保护的难度,也会使信息泄露风险增加。[45]

五、算法行政的法治化调适

技术的进步是把双刃剑,正如有人说“技术上最伟大的胜利与最伟大的灾难几乎并行”[46],在享受算法行政带来的便利的同时,也必须应对其对行政法治带来的冲击和挑战,我们要做的是将算法行政引导在法治化轨道上行进,规训算法行政。

(一)坚持辩证思维应对算法行政

理念是实践的先导,正确处理算法行政带来的冲击,首先就应当树立正确的理念指导实践。面对算法行政的兴起,我们既不能放任自流,一味沉湎于其给行政规制带来的便利和高效,而忽视其潜在的风险和对个体权利空间的挤压;也不能因噎废食、裹足不前,不顺应当代社会和技术发展的趋势,而对算法和智能技术在现代治理中的作用视而不见。应当运用辩证思维应对算法行政,既包容审慎,又警惕权力扩张的风险,注重权力与权利之间的衡平。

坚持权力制约理念。权力运行始终伴随着扩张、异化乃至滥用的风险,与之相对应的权力制约也是一个恒久命题。可以说,现代法治发展的动因之一就在于对权力的制约[47],这也是法治政府的核心要义。习近平法治思想中提出“法治政府建设是重点任务和主体工程,要率先突破,用法治给行政权力定规矩、划界限……”[48]因此,对于数字治理、算法行政的广泛应用,已经有人提出“数字宪治主义”,注重在宪法层面实现数字权力制约和数字人权保障。[49]相应地,在算法行政趋势下的行政权力的扩张和异化风险,也应当在法治的框架内予以关注和警惕,紧紧崩住数字化、算法化中的“权力制约”之弦。

坚持包容审慎理念。算法作为推动人工智能时代发展的核心驱动力,也能为政府治理和社会发展提供助力,并且算法应用水平的高低、竞争力的强弱,甚至影响到国家综合实力的大小,影响到国与国的竞争。从国家主权的角度看,国家算法权力和算法竞争力应当不断增强,而不能削弱。[38]对于尚处于起步发展阶段的算法行政,应当在“观察”中包容其发展,不能在出现时就被管死。

坚持权利赋能理念。权力与权利如同两束从原点发射的光,二者相互照耀又彼此交织,共同映照着法治的理论与实践之路,权力与权利的相对平衡和相互制衡也是现代法治的不懈追求。习近平法治思想提出“推进全面依法治国,根本目的是依法保障人民权益。要积极回应人民群众新要求新期待……”对人民群众权利的保障应当与时俱进,在人工智能时代和算法行政背景中,必须时刻关切公众权利在时代洪流中能否彰显。伴随着算法赋能权力和权利的不对等,必须通过制度和规则予以匡正,通过对权利的再赋能,让权利的保障能够在相对平衡的范畴中推进,充分发挥权利对权力的制约和监督作用。权利赋能的保障就体现在算法行政中对行政基本原则的重申、对行政正当程序的充分遵守以及对个人信息权利的强化保护。

(二)行政基本原则在算法行政中的重申与回归

⒈限定算法行政的适用范围与裁量空间,坚守依法行政底线

算法在行政中的适用和扩张,必须在法律的框架中予以限定。

首先,明确算法在行政规制领域中的地位,严格要求算法只能用来辅助决策,而不能完全取代行政决策。行政主体应避免对算法过度依赖,不能任由思维的“惰性”被算法放大,始终保持行政决策中的思维理性,防止盲目服从于算法。

其次,严格限制算法在行政规制中的适用范围和领域。法律保留原则要求针对基本权利的限制只能由法律设定,类似于此,算法在行政中的应用范围也应由法律规定予以保留;以概括或列举方式明确哪些行政决策只能由人为作出,而不能由算法主导。比如欧盟就规定,若算法决策对主体会产生重大影响或法律效力,此种决策就不应仅仅由算法作出;美国威斯康辛州规定使用算法量刑时,人类必须保证参与实质决策。[50]

再次,谨慎使用预测性算法决策。预测性算法借用过去的数据预测未来行为,并以此来决定允许或剥夺个人选择;然而预测性算法的基础在于过去数据和未来推断结果的相关性,而这种相关性实质上也是一种人为建构的认知模式,并非唯一的认知模式。这个过程会忽略掉很多偶然和不可控因素,导致以应然推测实然、以过去推测未来的谬误,影响实质公平。因此应谨慎使用预测性算法决策,严格把关使用时数据的来源、质量和范围,充分保障数据的真实性和准确性。

最后,限制算法裁量的使用。在裁量性行政行为中,一般存在着裁量空间大小的区分,即法律严格约束裁量空间的低裁量行政行为和法律赋予较为宽泛裁量空间的高裁量行政行为;在算法适用中,对于二者应当加以区分,根据情况决定是否排除或者赋予行政机关选择采用算法决策的权利。[18]

⒉增强算法行政透明度,落实行政公开

“透明性有助于营造一种信任的气氛,引导大家接受算法的结果”[51]。

一是定期制定和发布算法参与或主导行政决策的清单,增强算法行政的可见性。行政公开是公众知情权的第一步,而如何实现行政公开,首先就应该由行政机关主动公布并及时更新哪些具体的行政决策、行政行为已然引入算法参与,甚至直接由算法进行自动化决策。通过公布清单让公众知晓哪些行政活动涉及算法的使用,进而知晓和评估算法行政是否会对自身权益产生影响以及影响的方式和程度,才能确定是否和可能行使免受算法决策的权利以及申辩救济的权利。

二是公开算法参与或主导行政决策的基本规则和因素权重。算法行政中算法的参与乃至主导并不能因此免除行政主体信息公开的责任,行政主体仍应当是行政程序的主导者,须公布算法在行政行为和行政程序作出过程中所起的作用、重要性以及影响程度等,保障行政相对人的权益。

三是协调行政信息公开与算法商业秘密保护。上文已提到,算法行政中使用到的算法系统和模型,大多是同企业合作开发,此时就会有企业以保护商业秘密为由拒绝进行信息公开。美国纽约州就曾发生过此类案件,其教育部门以算法技术供应合同中约定算法方法或措施是“专有信息”为理由,拒绝了一位法学教授关于算法公开的请求。[52]此时就引发一个质疑,算法商业秘密能否置于行政公开之上,并优先于公共利益?鉴于公共利益的特殊性和重要性,行政机关在选择企业进行算法系统开发时,就应当预见到信息公开的必要性,事先约定要求企业做到相关信息公开保证,在必要时公开算法代码和程序,实现算法行政中算法模型和算法系统的公开透明和可问责。

四是附加算法参与或主导行政决策的说明。除了提前公开算法规则和权重之外,针对算法行政作出的算法决策,还应当在过程中附加一个文字说明,或者用流程图、结构图方式作出,专门说明此算法决策以何种方式、何种程度参考了算法输出的结果。

⒊重视算法行政中的正义实现,追寻行政公平

一是适时将免受算法决策的权利赋予给行政相对人。在算法行政格局中,行政相对人实际上是被动接受算法决策的一方,行政主体掌握了是否利用算法和何时利用算法的主动性,这实际上不利于行政公平。应当赋予行政相对人拒绝接受算法参与或直接作出决策的权利,这源于作为个体存在的人要求作为个体来对待的基本权利;[53]该权利也与行政主体的告知义务和信息公开义务相联系。

二是设定规则给予行政相对人免受算法歧视的权利。在算法行政场景中,数字鸿沟的客观存在,导致知情者与不知情者之间、信息富有者与信息贫困者之间形成新类型算法上的歧视[54],侵蚀着行政公平的作用空间。鉴于此,可以设置专门的中立机构或委员会,遵循专业、客观、多元等原则,负责对算法行政中使用的算法系统及其影响进行审查和评估,在事前针对其产生的影响、是否存在歧视、是否损害行政公平等要素进行评价,预先消弭算法模型潜在的歧视风险。

⒋保障相关主体的权益伸张,恪守正当程序

一是保障并增强公众参与选择算法系统的权利。公众参与是保障公众实体权益的重要程序保障。具体到算法行政中,就是要求行政主体在选择、购买或者共同开发算法系统,并将其应用到行政规制领域时,应当充分创造机会和条件,保障行政相对人、利益相关方参与到系统的选择、开发中,为公众提供一个渠道尽早了解算法系统、发现问题、表达主张和诉求乃至反对引入算法,这也是增加算法行政透明度和可见性的客观要求。

二是建立算法影响评估制度。上文已经提到算法影响评估,其实可以作为一种制度确立下来,这方面欧盟已有较为完善的实践。[55]行政机关应用算法系统必须经过评估,判断其对公众权利的影响、是否适合在某行政规制领域应用,在评估中应当允许行政相对人、利益相关者参加,以此作为公众参与的制度抓手。

三是设定通知和申辩作为具体算法决策生效的必备环节。在算法行政中,有时会为了行政效率,而在具体行政行为作出时完全不需要人工干预,例如“秒批”系统;但是当此类行为不利于相关当事人或利益主体时,当事人甚至不知情,或者通知提醒不够明显,根本没有机会申辩或者协商。因此,有必要要求算法决策中行政相对人应当得到有效通知,并将此作为算法决策生效的必备条件;同时在程序中,给予足够的时间和途径,保障相关主体能够陈述和申辩。

四是增强说理并赋予相关主体算法解释权。“如果政府不能解释其决定,政府就不应该使用算法。”[56]在算法行政中,行政主体一方实质上享有选择和应用算法系统的主动权和主导权,而行政相对人和利益相关者则处于被动一方。行政机关利用算法系统作出算法决策时,除告知、信息公开外,还应保障算法具有可解释性,并负有解释、说明理由的义务。从反面来看实质上就是行政相对人和利益相关者享有的获得算法解释的权利,这也是说明理由制度在算法行政中的细化延伸。算法解释权在构造上应包含算法决策原因,解释的内容、标准和形式,在类别上应包含对算法模型逻辑上的解释和对特定算法结果的解释。[57]

(三)强化算法行政中的个人信息保护

数据是算法的基础,算法行政的推进也离不开对个人信息和数据的收集、分析和处理。算法行政中行政主体可以公共利益为理由进行个人信息的收集和使用,这当然具备相应的正当性和合理性。正如在疫情防控中健康码的推广和对个人信息权益的让渡,就体现了公共卫生安全在一定条件下优先于个人信息权益。但是,算法行政中对个人信息权益的限制并不是总是合理的,常有发生个人信息安全风险“溢出”情形。因此,对个人信息权益的限制必须遵循一定的原则和规则约束。

⒈知情同意原则的适用和例外

个人信息保护的基础在于个体对个人信息的持续控制,知情同意原则就是“控制”的集中体现。“知情”要求行政活动利用算法收集个人信息时,应当明示个人信息中主体信息处理的方式、范畴及目的等内容;“同意”要求信息处理行为应以征得个人信息主体同意为要件,同意以知情为前提,并且应当是自愿且明示的,比如“明确的语言表达或规定性动作”。当然,知情同意原则在特定情况下也有例外,为了重大公共利益、公共安全、公共卫生,可以突破知情同意原则,在个人信息处理时不征得同意,但是这种例外应当有明确的标准和程序。

⒉最小必要原则的坚持

该原则要求个人信息处理的范围和期限以实现授权目的为必要,即在实现目的前提下信息处理范围最小、期限最短。知情同意原则在算法介入情况下十分容易被削弱和忽视,事前保障薄弱;最小同意原则作为事后个人信息保护的补强,对于平衡个人信息保护作用显著。具体在算法行政中,个人信息收集的类型和数量以实现目的为限,不得强制收集超出目的的非必要信息;个人信息的使用应当注重合比例性,不得超出目的使用个人信息;个人信息使用时限也应有所限制,当特定行政目的达成或者事先约定的使用期限届满时,应当安全、及时删除收集的个人信息,而不能擅自用作其他用途,保护个人信息主体的被遗忘权。另外,个人信息是否披露及如何披露,应当保持最大限度的克制和慎重,隐去或者删改能够识别特定主体个人身份的信息,不得侵犯个人隐私权,实现个人信息的“去识别化”。[58]在这一点上,防疫实践中已有进步,北京、上海在疫情信息公布中就做到了“只提轨迹不提人”。[59]

⒊个人信息处理中的公开和透明

在这个层面,实质上和增加算法透明度、行政公开联系紧密,要求算法行政中行政主体要通过适当方式,向个人信息主体说明个人信息处理的范围、类型、必要性及相关性并做充分提示,还包括个人信息处理的管理模式、使用期限,以及通过何种技术和措施保护所采集的信息。

(四)小结

无论是辩证思维的坚持,还是对行政基本原则的重申,以及对个人信息权益的倾斜性保护,其主要方向还是在于匡正算法行政中日益凸显的“权力-权利”失衡格局。对行政权力主体在运用算法系统进行行政决策时课以更多的义务和程序约束,对相关受规制主体赋予更多的积极或消极权能,都是为了使相对被动和弱势的公众和个体,能够在算法行政的冲击中保障自己赖以生存和发展的公平、自由、隐私、人格尊严等权利。

六、结语

算法已经渗透进现代社会的方方面面,算法权力悄然形成,其扩张并接入到行政规制领域,日益形成算法行政格局。可以说,算法行政为行政效率的提高、行政成本的降低、治理能力的提升、规制精准度的增强都注入了新活力和动能,也奠定了算法行政正当性的基石。但是纯粹功利主义的考量,不能掩盖算法行政对行政法治的冲击与挑战,算法赋权对权力和权利增量的不对等,导致“权力-权利”格局的变动和失衡;算法行政撼动了行政基本原则,依法行政原则被消解,行政公开原则未完全实现,行政公平原则落空,正当程序原则在一定程度上被空置;算法行政下个人信息的保护未得到足够重视,个人信息被侵害的风险加剧。面对此种形势,既不能因算法行政的潜在风险和挑战就忽视其带来的便利,而逃避科技和算法在行政活动中的应用,也不能放松对算法行政的警惕,任由其对公众和个体所珍视权利的侵蚀。因此,算法行政也必须置于法治的框架内予以审视,把握技术发展规律,以预见性的眼光、辩证的思维、包容审慎的理念对算法行政予以法治化调适,才能让算法更好地服务于行政规制、服务于公众利益,促进法治政府的建设,而不会陷入“技术利维坦”的泥淖。

参考文献:

(略)

作者简介:

王贵(1991—),男,汉族,湖北十堰人,法学博士,武汉大学竞争法与竞争政策研究中心兼职研究员,主要研究方向为宏观调控法、行政法、经济法。


 
最新文章
相关阅读