【ZiDongHua 之人文化天下收录关键词: 行政自动化  算法  自动化行政】
  
  于一帆:自动化行政中算法的可公开性及其范围
  
  摘要:在自动化行政中,算法的本质是行政规则,其可公开性与可解释性之间存在实质性差异。可解释性关注的是实现透明算法,而可公开性更侧重于实现透明政府。有鉴于此,在行政法制度体系中,可解释性对应行政行为说明理由制度,可公开性对应政府信息公开制度。基于算法的行政规则本质,以及《政府信息公开条例》关于政府信息主动公开范围的规定,自动化行政中的算法应当予以公开。同时,其应当实现“最大范围的公开”,即采取源代码公开的形式选择。此外,如果确因安全因素不予公开算法,则需要满足利益冲突标准、价值比较标准与替代方案标准等三项利益衡量标准。
 
  
  关键词:自动化行政;算法公开;政府信息公开;算法解释
  
  在“互联网+行政”的背景下,行政决定、程序等内容的图示化、智能化已成趋势,学界将此类通过人工智能、大数据等展开的行政活动普遍描述为自动化行政。实践中,算法或是辅助行政主体,或是直接作出行政决定,在自动化行政中扮演愈发重要的角色。而当前,自动化行政中的算法规制仍处于以算法解释权为核心的体系之中,忽视了公法与私法之间保护场景与规制方式的差异。申言之,算法解释权过于关注运算结果的可解释性,强调“透明算法”而非“透明政府”,忽视了行政法制度原有的公开要求。2022年6月,河南维权储户离奇被赋“红码”事件表明,行政机关的算法权力滥用之时,仅凭对结果的片面解释无法充分回应相对人的知情诉求,相对人无从知晓被赋“红码”的真实原因,如无舆论关注,其人身权利救济更是无从谈起。因此,深入审视自动化行政中的算法公开问题,无论对于限制政府算法权力,还是保障公民的知情权和监督权而言,均确有必要。从另一角度考量,一旦行政机关收到相对人的算法公开申请,那么制度上亦应有所回应,以确保行政法体系在算法时代仍能保有生命力。由此,本文试图以自动化行政中算法的性质与层次作为出发点,探讨算法在政府信息公开制度下的可公开性及其范围,为相对人的算法知情权保障提供理论方案。
  
  一、自动化行政中算法的性质与层次
  
  (一)作为行政规则的算法
  
  算法的实质是规则。这一实质由其定义就可以直接体现:“一个算法就是一个有穷规则的集合,其中的规则规定了一个解决某一特定类型问题的运算序列。” 通俗地说,算法就是一系列解决问题的清晰指令。算法通过其确定性、模型化的特征,构建起解决问题的技术机制。在算法行政的场景中,行政机关通过技术手段制作算法,为数据设定具体的处理规则,以形成处理结果,辅助行政机关行使职权,进而提升行政效率。算法在行政法体系中的性质应为行政规则。行政规则即行政机关创制的规则,包括两种类型:一是“通过行政立法制定的规则,即行政法规和行政规章”;二是“行政主体在行政立法所立之法以外建立的普遍性规则”,即行政规范。虽然算法是一种规则,可是并不能直接得出自动化行政中的算法是行政规则这一结论。而有如下三项理由,能够证成其性质:
  
  一是效果上,自动化行政中的算法具有普遍性特征。行政规则的普遍适用性,是其不可或缺的构成要件,这得益于行政规则本身所具有的“化繁为简”的能力。不同的行政相对人,其情况具有个体差异性,却平等地适用同一套行政规则来解决问题。同样地,算法亦符合普遍适用性的深层机理。考夫曼在其“事物本质”的命题中指出,法规范所指涉的生活关系乃是一种本身已经组构过的事实,其涉及人与人之间的关系,因此其本身已内含一定的意义。在此意义上,作为一种规则的算法,应用于行政场景之中时,即已具备行政规则的本质意义。无论是应用于环境监测、应急防疫等反应型算法,还是交通拥堵预测等预测型算法,均具有平等应用性以及化繁为简的模型化能力。因此,自动化行政中的算法普遍适用于相对人,其实质是行政规则。
  
  二是内容上,自动化行政中的算法以行政规则为基底。自动化行政中的算法与商业算法最大的区别在于,前者的制定需要法律上的依据。此系行政法定原则的要求,即“法无明文规定不得任意行政”。故而,无论是行政机关的自制算法,或是其委托第三方制作的算法,均应在已经制定的行政规则的基础之上,完成技术性创制。例如,在自动化行政审批的场景下,审批通过与否的规则已经事先制定,而后在规则文本的基础上进行技术创制,形成算法。在此项程序中,技术性创制,实质上就是行政规则的代码化呈现。
  
  三是功能上,算法在行政程序中承担的角色即为行政规则。以健康码的算法为例,在防疫过程中,工作人员将按照以下步骤对相对人的感染风险进行判断:
  
  如果在没有电子设备的年代(图1中的A1、B1、C1的流程),如需获知相对人的风险等级结果,行政机关需要按照既定的规则,借助相对人提供的或行政机关调查得知的信息,对相对人的风险情况进行逐一判断。而在算法时代,算法即是规则,收集数据代替了调查过程。于是,健康码便代替了防疫人员的人工鉴别。那么对比A1和A2这两个过程可知,二者的区别就在于:电子设备代替行政人员成为判断主体,算法代替文本规则成为行政规则的主要形式。由此可知,在自动化行政的场域下,算法承担的就是行政规则的功能。
  
  (二)具有文本规则与技术规则双重层次的算法
  
  如前所述,算法以行政规则为其内容基础,加之技术性转化,而最终投入使用。这一过程就以技术处理为界,将算法分割为两个层次:代码化之前的算法,即为文本规则;代码化之后的算法,即为技术规则。算法双重层次之间的关系,在行政场景中体现为数字孪生关系、形式与实质的关系。
  
  首先,技术规则是文本规则的数字镜像,二者体现为数字孪生关系。在自动化行政算法之中,技术规则是根据文本规则制定的,二者的目标与功能皆一致,分别在数字世界与现实世界实现其公共目的。由此,文本规则与技术规则就分别对应着算法的实体规则与数字镜像,二者属于数字孪生关系。然而,这并非表明文本规则与技术规则是完全对应的关系,代码并不是对文字的简单翻译,而是对既定规则的数字化表达。在此意义上说,此种数字孪生关系意味着目标、功能与效果上的等同性。
  
  其次,文本规则与技术规则是形式与实质的关系。例如,交通自动化执法场景中以交通法规为文本规则,然而,对相对人处罚结果出现偏差或错误通常却是由于技术规则的设定错漏。又如,健康码的算法通常将文本规则对外发布,然而技术规则常常会导致算法处理结果与其规则并不一致。在河南为村镇银行维权储户赋红码的事件中,根据外在形式上的赋码规则,维权储户并不属于应被赋红码的人员范围,真正造成其被限制人身自由的是算法的技术规则。故而,自动化行政中的算法将文本规则进行技术性转化,才成为真正发挥作用的算法。因此,文本规则仅具有外在形式性,技术规则才是自动化行政中算法的实质规则。
  
  二、自动化行政中算法可公开性的廓清与证成
  
  (一)自动化行政中算法公开的逻辑纠偏:可公开性不等同于可解释性
  
  在以往的算法规制逻辑下,算法公开与算法解释都是增强算法透明度的具体措施,意在打开算法黑箱,实现算法的可问责性。有学者认为算法透明指的是,“由算法的设计使用者披露有关算法如何部署、如何工作以及如何使用算法等相关信息,以期由监管部门或第三方进行监管的制度”。简言之,算法透明追求的是使人清晰地获知算法如何运行。在此基础上,学界开始尝试建构算法透明的多种方案。算法公开便是其中一项重要手段,具体路径是公开算法的源代码。然而,由于其“可能导致社会主体钻算法的空子,采用各种方式来‘算计’算法的问题”,以及公众对算法知识的掌握程度不够,而导致算法公开并不能真正达到监督目的等原因,源代码的公开往往不被提倡。在此背景下,算法的可解释性被认为是增强算法透明度的更优解。通常而言,算法的可解释性“是算法模型的客观属性,即某一算法在技术架构上是否具备了作算法解释的条件”。算法只有具有可解释性,建构起人工智能和人类之间的对话机制,才能使人们的认识达成共识。
  
  然而,我们从上述分析可以看出,无论是算法公开或是算法解释,均站在技术主义的立场,而忽视了其中的法治主义逻辑。在技术主义的立场上,“评价人工智能技术导致的后果,只有客观上的‘对与错’,而无行为人主观上的‘故意’或‘过失’”。而依循法治主义逻辑,算法公开关注的是:依照法律,行政机关在算法公开方面具有怎样的义务,行政机关做什么、做到什么程度,才能达到法律上公开透明的要求。换言之,自动化行政中的算法公开并不是为了监督算法运行,而是以监督政府为目标。算法可公开性的基本逻辑是规制行政机关的算法权力,其本质是为实现透明政府,而非追求透明算法。反对者可能会认为,实现了透明算法,就等于是实现了政府的行政公开义务。但实际上,这就混淆了手段与目的:采取了算法透明的手段,并不一定代表行政机关履行公开义务就达到了法律的要求,亦不代表公众的知情权和监督权就能够实现。
  
  基于算法可公开性与可解释性的差异,在落实行政公开原则时,二者亦具有不同的制度适用。自动化行政中的算法解释对应着行政行为说明理由制度。《中华人民共和国个人信息保护法》第24条第3款规定了行政机关对算法决策的依申请说理义务:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”置于行政法体系之下,这一规定实为行政行为说明理由制度的变体,“旨在苛以决策者负担对其作出事关数据主体和利益相关者权益的决定说明理由之义务”。然而,上述算法依申请解释路径,却造成了监督的真空。技术规则才是自动化行政中实际发挥作用的规则,如果只是通过说明理由制度进行监督和追溯,那么其重点便会聚焦于算法的文本规则,作为算法实质性规则的技术规则,将几乎无法得到审查。行政机关是否设置“阴阳规则”以实现与其外在目的不一致的内在目的,是否存在滥用职权行为,以及受委托的技术公司是否如实实现文本规则,是否假借公益追求私益等问题,无法简单地通过说明理由制度使公众得以知晓。然而有学者认为,“算法即使向社会公开,普通公众同样难以理解”。可是,公开算法的行为本身对于行政机关的监督作用更为重大:公开算法,政府的实际意图便呈现在公众面前,就有被监督和质疑的可能,其行使权力时便能“有所忌惮”;而不公开算法,公众永远无法得知算法实际上如何运作,则行政机关利用算法实现其他目的就具有了空间。
  
  算法公开在行政法体系中对应着政府信息公开制度。在现代行政法治中,政府信息公开是规范行政权力,保障公民知情权、参与权、监督权等民主权利的重要制度。我国政府信息公开的制度目的,一是服务生产、生活或科研的需要;二是突发事件的应急管理需要;三是贯彻世界贸易组织透明度原则的要求;四是行政公开的需要;五是反腐倡廉和推进民主政治建设的需要;六是保障公民知情权。由此可知,政府信息公开的制度内核与行政行为说明理由制度并不相同。其并非要求对具体行政行为的结果“给出交代”或“自证清白”,而是公开政府信息这一行为本身就可以实现其制度目标。政府信息公开制度下算法公开的主要目的是实现公民的知情权与监督权,以及满足公民生产生活或科研的需要。
  
  (二)自动化行政中算法的可公开性证成
  
  自动化行政中算法的可公开性是由其行政规则的本质所决定的。《中华人民共和国政府信息公开条例》(以下简称《政府信息公开条例》)规定政府信息以公开为常态,不公开为例外,同时,行政规则亦属于第20条规定的主动公开的范畴。《政府信息公开条例》第20条采取正面列举与兜底列举相结合的方式,说明了法定主动公开的内容。其中第1款便是“行政法规、规章和规范性文件”。而行政规则以行政法规、规章和规范性文件为文本载体。因此,作为一种行政规则的算法自然应属于主动公开的政府信息。虽然并非所有算法都有其文本载体,但从立法目的上看,各种形式的行政规则均应属于主动公开的范围,算法亦不例外。
  
  然而,在解决算法公开问题时,行政机关可能会主张行政行为是由算法自动作出的,因算法黑箱具有不可解释性,或者以商业秘密或危及国家安全为由拒绝解释。对于行政行为中亦存在“算法黑箱具有不可解释性”这一说法,可从两方面予以回应:一方面,“算法黑箱是刻意保密的结果,是人为制造的,是权力的表达而非算法的本质”。自动化行政中更是如此。行政规则是既定的,而是否选择使用算法、选择使用复杂程度如何的算法,都取决于行政机关。申言之,行政机关使用算法行政,即使是具有高度自动化能力的系统,“亦系公务员预先输入之程式及资料而运作”。此时,“行政机关仍为行政程序之主宰,所为之表示或决定,皆为行政机关之行为,并非以‘物’役‘人’”。另一方面,算法的文本规则决定了算法能否存在。无规则即无算法,因此无论技术规则如何,皆不能否定算法由其规则本质所决定的可公开性。而公开后可能导致算法系统被攻击、算计等问题,皆为技术规则可能导致的缺陷,可以通过调整公开的范围予以规避,而不应因此否定算法的可公开性。
  
  算法欲真正实现公开,还需破除政府信息公开制度的豁免条款障碍,其中最主要的是商业秘密豁免。在美国,用于量刑的算法被法官认定为商业秘密予以严格保护,也就是将算法黑箱看作一种正常情形,既不要求企业公开算法代码,更不会要求企业向公众说明该算法的工作原理。对于自动化行政中的算法是否被认定为商业秘密的问题,笔者认为,自动化行政中的算法与商业算法有别,其性质不应被认定为商业秘密。理由有两项:第一,自动化行政中的算法往往不能保持秘密性。在算法较为简单的情况下,大多都可以通过反向工程推出。因为“许多算法决策不依赖于难以理解的深度神经网络,而是较不复杂和更易解释的模型,例如决策树”。此时,该算法便不具有秘密性。第二,即使算法较为复杂,也不应认定为商业秘密。原因在于,尽管某些机器学习算法系统生成的结果难以在事前预测,并且难以用传统方法进行解释,但采用机器学习这一决定本身就是设计系统时的人为选择。换言之,由于目前算法决策多具有可解释性,受委托制作算法的第三方机构在明知算法公共性的情况下,仍使用极为复杂、不可解释的算法,同时又要求认定为商业秘密,这便属于消极应对公开。既想要赚取制作算法的巨大收益,又不愿尊重行政公开的要求,故不应对此进行保护。其中的根本逻辑是:在算法行政中,行政优先于算法,算法应在行政法治价值所设定的范围内使用。当算法能够助益行政时,则可以优先使用;但当使用算法可能破坏长期以来形成的行政法治价值时,便应秉持更为审慎的态度。
  
  三、自动化行政中算法公开的范围
  
  自动化行政中,算法应以源代码方式公开,还是以解释的方式公开,这表面上是形式问题,实为公开范围问题。解释得越多,概括性便越强,实际公开的范围越小。在我国现阶段的自动化行政实践中,算法公开至何种范围,亦无制度规范。在算法公开的立场之下,如何既保证自动化行政中算法的公开透明,又能够不影响政府信息系统安全,这是亟须解决的难题。在世界范围内,关于算法公开问题已有多种做法或学界较认同的方案,或许可以为我国确定算法公开范围提供参考。
  
  (一)自动化行政中算法公开范围的方案检视
  
  第一种方案是文本规则的公开+技术规则的诠释,其对应着最小范围的算法公开。法国2016年颁布的《数字共和国法》,赋予了公民对关于个人的、基于算法的行政决定要求解释的权利,即在“基于算法处理的决定”的情况下,必须在要求时提供定义这种处理及其主要特征的规则;此外,在2017年,法国进一步明确行政机关还应提供算法对行政决定的影响程度和方式、算法参数及其权重等信息。该路径规定了一条算法公开的底线,即对于算法的文本规则应当公开。而对于技术规则,则采取以结果为导向的文字化概括,力求算法规则的明晰与过程的各阶可控。
  
  然而,“公开文本规则+释明技术规则”的路径与我国政府信息公开制度不相兼容。我国政府信息公开制度的核心在于“公开”,而非“说理”。如果要求政府在依申请公开的基础上对其解释说明,相当于超越了政府信息公开制度的规定,赋予了行政机关另外的义务,这可能会造成成本过载。在信息公开制度中,“主动公开信息方式的确定应当遵循一条基本原则,既要方便公众周知,又不能过高增加公开成本和妨碍行政效率”。前述方式置于算法解释制度尚且可行。但在信息公开制度框架内,强调说理则显得成本过高。即使在非常重视行政公开的英国,也有学者指出,“要求决定者对日常的行政事务提供最基本理由之外的理由,可能是一项繁重的负担”。
  
  第二种路径是公开算法的源代码,其对应着最大范围的公开。在美国纽约市,有议员提出议案,要求通过立法强制政府机构披露算法的源代码。无条件地公开源代码,实际上是一种最大范围的公开。此种方式虽然具有公开的必要性,但仍常被批判为过于激进。纽约市亦因此采取了以个人权利保护为导向的算法解释路径作为替代。然而,公开源代码的方式在我国却得到了支持。有学者认为,对于一般公众可理解、不存在技术隔阂的自动化行政算法,应当无条件公开,除非该算法因特定治理需要经法定程序被认定为应当保密。实践中,也有部分行政机关向公众提供了代码信息访问渠道,例如上海市公共数据开放平台提供了2000多个数据接口。如前所述,我国政府信息公开制度的基本原则是以公开为常态,不公开为例外。从这一制度立场可知,我国自动化行政中的算法应进行最大范围的公开,即在形式上采取算法源代码公开的路径选择。因此,第二种路径系对算法的代码公开,符合我国政府信息公开制度的基本要求。
  
  第三种路径是向无利害关系的第三方“定向开源”,其对应着公开范围的中间路径。英国下议院科技委员会要求向无利害关系的第三方“定向开源”。其主张:“政府应当公布和印发中央政府系统中重要算法引擎的使用列表,并允许外界对这些算法进行审查。”我国亦有学者支持“定向开源”路径,但其实施方式与范围与上述方案略有所不同。例如,有学者主张根据算法的类型来区分:“对于存在技术门槛、常人难以理解的学习型算法,应面向专业且中立的第三方技术人员公开,由其进行影响评估,这可以引入以技术制约技术的机制。”又如,“考量私益和公益的平衡,实施有限度的公开,即仅对政府治理决策者以及对行政决定持不信任态度的直接行政相对人公开”。上述几种“定向开源”的方式,或是缩小公开范围,或是限制公开类型,相当于附条件的算法公开,属于算法公开范围的中间路径。
  
  然而,无论是何种“定向开源”,都反映出信息公开覆盖对象的不全面。这恰恰与政府信息公开制度的修正背道而驰。2007年《政府信息公开条例》第13条设定了“根据自身生产、生活、科研等特殊需要”这一限定申请人目的的“三需要”条款,由于限定只有与信息具有特殊关联的人才享有获取该政府信息的权利和利益,而被学者所诟病。其原因在于,“政府信息公开的目的不仅在于为人民群众生产、生活和经济社会活动提供服务,更在于提高政府工作的透明度,监督行政机关依法行政”。故此,2019年修订的《政府信息公开条例》第13条删除了“三需要”的限定条件,意在扩大申请人范围,充分体现出我国政府信息公开对象的普遍性追求。因而无论是何种形式的“定向”,都缺乏制度根据,亦与政府信息公开制度的基本价值相背离。因此,经信息公开制度的检视可知,其要求自动化行政中的算法应当实现“最大范围的公开”,即选择算法源代码公开的形式路径。
  
  (二)自动化行政中算法不予公开的衡量标准
  
  虽然应对自动化行政中的算法实施最大范围的公开,但《政府信息公开条例》中仍有第14条的“三安全一稳定”事由可以阻碍算法的最大范围公开。由于算法公开较难撼动社会稳定,因此下文将着重分析阻碍算法公开的“三安全”因素,并将其统称为安全因素或安全事由。笔者认为,满足如下三项利益衡量标准,才能以危害安全为由拒绝公开算法。
  
  第一,利益冲突标准,即利益冲突是否实际存在,且无可避免。如行政机关以安全事由为由拒绝算法公开,则利益双方之中,一方代表着国家安全、公共安全、经济安全,另一方则代表着公民对算法的知情权与监督权。由此,以危及公共安全的衡量过程为例,此阶段的利益衡量需要以下两个步骤:其一,需要明确公共安全的范畴。在刑法“危害公共安全罪”中,公共安全是指不特定人的生命、健康和财产的安全,包括不特定的少数和不特定的多数在内。由此可见,公共安全所指涉的利益实际上是不特定人的生命、健康和财产权益。除此之外,危及其他权益并不能称之为危及公共安全。其二,明确算法公开与危及公共安全构成法律上的因果关系。根据相当因果关系理论可知,具备法律上的因果关系,即所谓的“客观盖然性”标准,需要满足以下两个条件:一是该事件为损害发生之“不可欠缺的条件”,即必要条件;二是该事件实质上增加了损害发生的客观可能性。一个较为典型的例证是预测型警务算法。如果将其公开,即符合危及公共安全的客观盖然性标准:将要危害公共安全的人员可能根据已公开的算法推测出警力的调配而选择实施地点,故而危及公共安全的客观可能性将随之增加。如若无法达到客观盖然性标准,则不能认为两者具有因果关系,利益冲突便不存在。
  
  第二,价值比较标准,即拒绝公开算法拟维护的利益是否具有位阶上的优势。“利益衡量的过程就是对相关利益进行比较和取舍的过程,而这一过程属于典型的价值判断。”在政府信息公开的制度语境下,价值比较标准通常被描述为:“越接近信息公开的立法目的,公开的分量越重;越接近例外事项的利益,不公开的可能性越大,公开的公共利益超越公开造成的损害时,选择公开信息,反之,选择不公开信息。”在算法公开的议题下,这便意味着安全利益与公民对算法的知情监督权益之间的“分量”比较,进而得出孰轻孰重的结论。从已有的通识性价值排序可知,以人性尊严为基点,按照接近性原则,区分基本权利的位阶秩序,即越能接近人性尊严的权利,其位阶越高,反之越低。具言之,生命权及人格权位阶最高,人身自由和言论自由紧随其后,接续排列的依次是生存权、民主社会中有利于政治意志形成的权利,以及其他基本权利。按照此种位阶秩序,安全利益关涉生命权、人格权、人身自由、生存权,等等。而知情权与监督权对应的是“民主社会中有利于政治意志形成的权利”,位阶稍低。据此似乎可以得出一项结论,即安全法益优于知情权与监督权的法益。然而,安全的范围过于宏大,其背后的利益亦太过宽泛,仍需要在个案中对其进行具体把握,才能最终确定利益位阶。如果确有必要因安全因素而判定算法不予公开,那么还需以第三项标准的检验作为前置条件。
  
  第三,替代方案标准,即是否存在部分公开或区别处理的方案。利益衡量要在诸多利益中进行协调和兼顾。在许多情况下,行政机关选择一种价值的同时,并不一定要放弃其他价值,而是要尽量在冲突利益之间寻找平衡。在算法公开衡量中,行政机关在作出不予公开的决定之前,应考量是否还有部分公开或区别处理的方案,此系行政均衡原则的具体要求。行政均衡原则是利益衡量的一般准则,要求行政机关在权衡各种利益时,应当综合衡量各种利益因素,充分协调各种利益关系,使之有机地统一起来,在尽可能的范围内保护各种合法利益。同时,根据《政府信息公开条例》第37条规定的“区分处理”规则,行政机关“应当向申请人提供可以公开的政府信息内容,并对不予公开的内容说明理由”。依此规定,行政机关可以选择将部分信息抹除,向社会公开并不危及安全的内容,最大限度地保证公众的知情与监督权益。
  
  结语
  
  随着自动化行政的发展,算法公开成为愈发重要的议题,关乎算法时代的透明政府建设,亦是算法行政的监督基础。无论自动化行政中的算法公开以政府信息公开为依托,抑或在立法中直接将其规定为一种信息公开的类型,均应坚持与算法解释不同的公开进路,并秉持最大范围公开的基本立场,充分履行公开义务。从长远考虑,对于自动化行政中的算法公开,可以通过公私法协同机制予以落实。我国已有学者探讨了算法专利适格性,其认为应确认算法“公开换保护”的价值意涵,通过算法专利权的法律保护,建立算法创新的合理保护基础。此种机制更有利于处理信息公开与商业秘密保护之间的利益冲突,也能够保障算法的实质公开。但无论制度怎样设计,都不应破坏现代行政法治价值,应使算法真正助力行政,促进数字政府与透明政府的同步建设。