摘要: 伴随着自动化行政的广泛利用,由于数据来源、算法以及系统因素而带来具有瑕疵的行政指令,这些都会对相对人的权利产生影响并引发后续救济的难题和困境。基于自动化行政指令形成瑕疵的不同机理,甄别自动化行政中瑕疵指令的实质,理解算法黑箱是自动化指令产生瑕疵的基础,是应当考虑的法规范基础。基于此,传统的正当程序保护、申诉以及复议和诉讼面临着新的挑战。瑕疵指令实际上对应着几种救济的可能性,即针对行政程序、行政活动与事实行为的救济。对于有瑕疵的指令,需探寻更契合自动化行政特点的救济内容。
关键词: 自动化行政 瑕疵指令 算法 法律救济
引言
自动化行政被日渐广泛运用于行政领域之中,它具有使行政决定更为精确、一致,以及节约成本并有助于成本收益,减少行政官员任意用权等优点,但同时也可能带来诸多问题,如破坏正当程序、产生算法黑箱等[1]。例如,2018年,杭州某公民参加了小客车指标摇号,并于2019年6月获得了指标,但由于未接到通知,直到2020年指标已过期时才发现。根据《杭州市小客车总量调控管理规定》第46条规定,逾期未使用的,视为放弃指标,自有效期届满次日起,两年内不得申请增量指标。该情形实际上是由于系统发送失败,导致该公民未获得相关短信。面对此种情况,该行政相对人如何才能获得相应救济?再如,2014年最高人民法院发布的指导案例26号“李健雄诉广东省交通运输厅政府信息公开案”。原告于2011年6月1日通过广东省人民政府网络系统向被告广东省交通运输厅提出政府信息公开申请,根据《中华人民共和国政府信息公开条例》规定,被告应在当月23日前答复原告,但被告未在法定期限内答复及提供所申请的政府信息,故原告请求法院判决确认被告未在法定期限内答复的行为违法;而被告广东省交通运输厅辩称,由于外网进入内网数据处理需要一定的时间,致使被告未能收到,进而未能及时受理申请①。此案中公民是按照要求通过政府公众网络提交政府信息公开申请,但如何界定收到政府信息公开申请起算日期?再如,新冠肺炎疫情防控期间,由于某种技术故障、个人信息更新不及时,或者在高铁途经中高风险地区但乘客未下车的情况下,仍然可能导致健康码显示为不合格,相对人又该如何寻求救济?可以预见,诸如此类具有瑕疵的指令在自动化行政指令频繁使用的未来,会更多地浮出水面。
参考行政行为瑕疵理论,本文所指的自动化行政瑕疵指令主要是指基于自动化行政中的数据来源错误、算法错误以及系统错误等产生的瑕疵,情况严重的情形下也可包括违法的自动化指令,如存在歧视、违背公平等瑕疵指令。
由于自动化行政很多情形下为“一次性”生成,需要对自动化行政中产生的瑕疵指令加以区分并依不同路径给予救济和保障。本文所探讨的问题正集中于此,即对于因自动化行政中产生的瑕疵指令所引发的后果,行政相对人如何获得相应的救济。
一、自动化行政中瑕疵指令的来源
自动化行政中的瑕疵指令来源于多种可能,我们不能仅从其表象来判断法律责任或者救济措施。这种表象背后所形成的机理,包括后续的相应救济手段各异。
(一) 数据来源瑕疵
任何一种自动化行政都需要搜集数据。如果数据来源出现问题,那以此得出的结论则从根本上就是错误的。例如,健康码生成过程中,因个人不慎填写了错误数据导致红码而无法现场修正;再如,信息获取时识别错误,2018年,宁波交警执法时曾通过自动化人脸识别系统所搜集的董明珠“违法”信息,实则为相应的车身广告上的照片,并无真实违法事件发生②;还有,电子监控设备由于其固有的缺陷,可能会无法辨识某一时刻的特定行为所导致的错误判断。2020年公安部修改的《道路交通安全违法行为处理程序规定》 ③第22条规定,“交通技术监控设备记录或者录入道路交通违法信息管理系统的违法行为信息,有下列情形之一并经核实的,应予以消除:警车、消防车、救护车、工程救险车执行紧急任务的;机动车被盗抢期间发生的;有证据证明救助危难或者紧急避险造成的;现场已被交通警察处理的;因交通信号指示不一致造成的;……其他应予消除的情形。”基于该条所规定的消除情形进行反向思考,也可认为,录入道路交通违法信息管理系统的违法行为信息有可能会出现与实际情况不符合的“错误”情形。
如在“高瑞丽与郑州市公安局交警十大队公安交通处罚案”中,原告年审核验时,遇到被告以原告车辆有“电子眼”违章记录为由要求交纳罚款,否则不给审车,直到2013年12月11日,原告在被迫交纳“电子眼”违章罚款后,车辆才审验④。该案原告认为,被告所采用的电子眼均没有依法向计量法规定的政府计量监督管理部门申请安装检定和强制性年度检验,该“电子眼”的信息作为处罚依据是不合法的。当然,法院最终认为《中华人民共和国计量法》相关规定因机动车年检的行政主体与交通违法处理的行政主体不同,前者为质检部门,后者为交通管理部门;机动车年检并非作为被告的交管部门的法定职责,原告所称的被告滥用职权没有依据。然而,这并不表明“电子眼”即使未经年审也不存在合法性的问题,只是在本案中因为主体不适格,法院未予以认定。再如当下,公共治理的许多领域都在使用的信用评价惩戒机制,信用评价其实也是基于各种各样的数据来源,如果这些数据本身存在问题,结果亦然。《上海市医疗卫生人员权益保障办法》第37条规定:公安机关等应当依法及时向市公共信用信息平台归集相关信息;相关违法行为轻微或者主动消除、减轻违法行为危害后果的,不予归集;市卫生健康主管部门应当汇总前款规定的失信信息,及时推送至医疗卫生机构及医疗保障机构⑤。
自动化行政缩减了公务人员的裁量空间,将规则以电子化形式确定,这在一定程度上有助于行政主体更为理性地处理案件,但也正因为其非常固定和机械化,导致行政指令过于依赖数据反受其制约,从而滋生由数据错误所导致的诸多问题。
(二) 算法瑕疵
计算机不仅是数字计算器,还是数字和符号处理器。它需要按照一定的规则进行计算,或者比较擅长计算以及类似工作[2],但如果出现了部分指令错误或者缺损,其最终也会给出一个错误的结果。例如,健康码实施以后,实际上各地就发生过很多例由于后台信息搜集错误所导致的非正常变码案例,因健康码显示与实际不符而申请复核的人数仅在上线四天内便有三万余人⑥。各地在具体信息搜集程序上差异明显,也存在统一规范等方面的问题。技术后台基于哪些数据比对分析?对各类数据如何赋值?在数据冲突时如何处理?如何具体确定风险等级的评定标准以及动态调整的具体依据为何?这些由行政机关设定的标准并未被公开[3]。
再如,某个内部系统指令设计可能存在问题,因为即使最好的程序设计者,都会存在不足。由于缺乏具有个案特点的语境,同时交通违法测速中也需要一些传统的警察领域知识,算法会出现一定的瑕疵,包括缺乏适当的传感器数据或无法处理软件中的高级认知功能[4]。
(三) 系统瑕疵
就目前人类所处的智能时代而言,自动化行政所依托的智能系统本身难免具有瑕疵,不能独立作出行政决策,典型的如各种道路上所设置的交通电子化监控设备。《道路交通安全违法行为处理程序规定》第15条规定,公安机关交通管理部门可以利用交通技术监控设备收集、固定违法行为证据;交通技术监控设备应当符合国家标准或者行业标准,并经国家有关部门认定、检定合格后,方可用于收集违法行为证据;交通技术监控设备应当定期进行维护、保养、检测,保持功能完好。在“方毅与金华市公安局交通警察支队公安行政管理、道路交通管理二审案”中,上诉人指出,交通技术监控设备如果不符合法律规定,就等于这么多年一直在侵犯社会公众的巨大合法经济利益还有安全利益……法律既然规定了需要对交通技术监控设备定期维护、校准、检测,交警当然必须要依法执行⑦。上诉人的主张虽然较为朴素,但实际上也生动地表明了机器故障可能会引发的问题。当然,法院最终认为在认定违法行为的证据确实充分的情况下,是否达到该技术规范要求以及是否提供设备维护证据,并不影响案涉行政处罚合法性的认定。
再如,行文之初的最高人民法院指导案例26号中,被告广东省交通运输厅辩称:原告申请政府信息公开通过的是广东省人民政府公众网络系统,即省政府政务外网(以下简称省外网),而非被告的内部局域网(以下简称厅内网)。由于被告的厅内网与互联网、省外网有物理隔离,互联网、省外网数据都无法直接进入厅内网处理,需通过网闸以数据“摆渡”方式接入厅内网办理,因此被告工作人员未能立即发现原告在广东省人民政府公众网络系统中提交的申请,致使被告未能及时受理申请。从中我们可以看出,系统故障会影响信息公开申请的时间点,也会对后续事实的认定产生影响。
二、自动化行政中瑕疵指令救济的法规范基础
自动化行政指令以数据为基础,依托于各种计算机系统,借助算法进而形成某个规则、命令。从行政机关来看,它替代了各种行政人员的调查取证,甚至发展到现在,可以在自动收集证据的基础上自动直接作出行政决定。例如,在“田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案”中,西安市公安局交通警察支队设立了道路交通违法自助缴纳系统。田志鹏因在交警大厅处理违章时,没有出具简易程序《处罚决定书》,违反了《道路交通安全法》中关于处罚程序的规定,请求依法撤销行政处罚决定⑧。这种自动化行政是否还须遵循传统的行政程序法要求?相应的后续救济措施应当为何?这便是对自动化行政带来的瑕疵指令所应当考虑的法规范基础。
(一) 自动化行政中瑕疵指令的实质
相对于传统行政而言,自动化行政最直观的特征是,自动化行政指令一般是电子化的,而我们传统的行政活动方式以及决定常常强调书面、正式等要求,即所谓的要式行政行为;仅仅对于一些紧急情况或者行为内容较为简单的情形,可能采用非要式行政行为方式。这是形式意义上的差别,而从实质比较来看,自动化行政指令易出现瑕疵,至少有如下两个方面:
1.缩减裁量:自动化行政缩减了行政机关工作人员的裁量空间。依靠指令,这种裁量成为了机械化的规则制定,裁量中须考量的相关因素可以通过系统事先的设定输入,不需要考量的相关因素则事先被剔除。机器将计算出数以百万计连接的微指令,这些指令可以实现法律规范的策略目标。这个复杂的微指令目录可以针对行为的小实例应用于更大的行为动作网络,实现更广泛的目标[5]43。当然,法哲学家对此颇有争议,因为在他们看起来法律必然是模糊和不确定的,法律推理过程需要理解和支持类比推理的原则[6]。再比如,法律往往要求实现公平,那这种公平可以被量化吗?首先,公平是一个模糊的概念,法律上的公平被翻译成算法公平可能存在困难;其次,公平被量化、被算法化可能带来歧视问题。美国联邦贸易委员会(ftc)发布的《大数据:包容性工具抑或排斥性工具?》(big data: a tool for inclusion or exclusion?)报告,特别关注大数据中的歧视和偏见问题:数据集是否具有代表性?所使用的数据模型是否会导致偏见?基于大数据进行预测的准确性如何?对大数据的依赖是否会导致道德或者公平性问题?这些问题往往都伴随着缩减裁量而产生[7]。尽管我们一直为滥用裁量权所困,但基于行政的效率考量以及个案决定要求,它的存在却是必要的。当我们从一个需要个性化判断的行政决定走向规程化的程序中,社会的整体利益、人性情感、地方习俗等因素都可能被忽略。
2.缩减程序:自动化行政缩减了行政行为的程序环节。如在“田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案”中,田志鹏认为,在交警大厅处理违章时,行政主体没有出具简易程序《处罚决定书》,违反了《道路交通安全法》的程序规定。法院在审判中认为,田志鹏的违法行为事实清楚,被告适用简易程序符合规定,至于未出具《处罚决定书》,那是因为自助缴纳系统本身可以自行打印且被告在处理大厅公示了违法处理流程,张贴有《法律文书补打流程告知》以及相关操作说明;田志鹏可依据操作说明在处理大厅自助系统打印出《处罚决定书》,但原告未按照上述告知内容打印,因而其主张被告没有明示自助缴费,不向其出具《处罚决定书》等意见,法院不予采纳,其诉讼请求被驳回。该案从形式上来看,程序被缩减,但实质上转移为另一种形式,即自助打印,而此时原告已缴纳罚款,可视为自行放弃了相应权利。但这里自然提出相关问题,是不是自动化行政所依赖的程序都是简易程序?或者可以缺省必要的程序?此时是否可以将行政主体的义务转化为行政相对人的权利?自动化执法系统会威胁程序性权利,即相对人被通知和进行申辩的机会。为救济相对人的合法权益,任何自动化执法系统都应该有大量的失效保护、冗余备份及相关机制,以确保完成适当的通知且个人可以有效地对自动出具的惩戒提出上诉[8]。
(二) 理解自动化行政的核心:算法
算法是自动化行政的核心内容。理解算法,才能理解缘何自动化行政会产生瑕疵并引发诸多问题。“算法就是一系列指令,告诉计算机该做什么”。“算法的核心就是按照设定程序运行以期获得理想结果的一套指令” [8]。所有的算法都包括如下共同特点:输入、输出、明确性、有限性、有效性。自动化行政发展的趋势便是学习型算法,这种算法会增加诸多人类所具有的判断,具有直觉和独创性,可以根据概率来权衡可能的未来。尽管当下我们上文所讨论的很多问题还称不上是这种学习型算法,但类似地,技术监控也好,自动化罚款缴纳系统也罢,这其中都存在技术盲区,即所谓的算法黑箱。我们无法知道系统背后所考量的因素是什么,算法的不公开、不透明使得自动化行政容易出现漫无边际的裸奔感[9]。
由此,自动化行政便会产生包括隐私权保护、个人信息保护在内的与人权保护相关的核心命题⑨。基于我国现有的行政行为救济路径,可根据《行政诉讼法》第16条第12款规定,认为行政机关侵犯其他人身权、财产权等合法权益的,可提起诉讼。然而问题在于,“等合法权益”在自动化行政中,常常被淹没在算法黑箱之中。算法形成的黑箱进一步扩展而成为网络化。我们很多人时刻生活在网络化的社会中,自己的信息何时、如何以及是否被侵犯,很多时候甚至无从得知。换言之,依据黑箱中算法的自动化行政并不能像传统行政行为一样,依赖某个决定及时知晓自己的权益保护情况,这些都增加了对瑕疵指令进行后续救济的难度。
(三) 瑕疵指令救济的传统行政法学基础
对自动化行政中的瑕疵指令救济除了上述权利基础之外,还需要进一步明确其指令的相关救济可归入传统行政法视域中的哪些范畴之内。依数据来源瑕疵、算法瑕疵、系统瑕疵三种主要类型,实际上对应着几种救济的可能性,即针对行政程序、行政活动以及事实行为的救济。如图 1所示。
图1 自动化行政瑕疵指令救济的传统行政法学基础
1.数据来源瑕疵:由于数据是作为基础性的数据搜集和分析依据,一般来说不会直接构成某个决定,所以在某种意义上,它类似于一种行政程序。如“高瑞丽与郑州市公安局交警十大队公安交通处罚案”的一审行政判决书中,“电子眼”所搜集相关信息成为后续行政处罚的依据,在行政诉讼法中是一种证据材料⑩。当这作为一种程序时,单独依赖这种程序所作出的决定确实可能存在合法性的问题。本案中就车辆在郑州机场辖区的违法信息记录,原告如有异议,应当向该路段的交通管理部门提出。原告主动到被告处接受异地违法信息处理,且对《处罚决定书》标明的“如是异地交通违法,无异议后签名确认”等内容未表示异议,原告在被处罚人签名处签署姓名并主动履行罚款缴纳义务,这是对自己权利的处分行为,应当视为对违法事实没有异议。换言之,相对人等于自己放弃了相应的陈述、申辩等程序性权利。本案中,电子眼所搜集的信息并未构成最终决定,而是因为被处罚人签名、缴纳罚款的实际行为认可了该行政处罚的有效性。当然,数据来源的瑕疵情形有很多种,如自己填写信息错误则应属于归由自己的原因,需要有充分的理由说明才能予以更正。
2.算法瑕疵:由于绝大多数情形下,算法背后所依赖的仍然是设定算法的技术人员,且这种利用机器所作出的自动化行政决定,其内容也是由公务人员确定并通过输入程序来实现的,因而,这种依赖算法的决定是一种行政活动。相应地,由于算法错误所导致的问题,也应归由行政机关及其工作人员承担相应的责任。然而,基于算法黑箱等因素,如果是纯粹的全自动化行政决定,如何审查算法仍需要进一步探究。换言之,算法也是一种“法”的实质,对于算法瑕疵的审查应该成为自动化行政发展后的独立命题,并不属于当下行政法律体系中的既有内容。
3.系统瑕疵:此时,更接近于一种事实行为,也会引起后期的赔偿问题。理论上,自动化系统的问题可能是由于不可抗力的自然因素,也可能是由于人为因素所导致的错误。如果是前者,没有合法性的问题,但由此造成的损害也会产生赔偿问题;而如果是后者,由于这个系统与行政机关之间的密切关联,也应由行政机关及其工作人员负主要责任。
综上所述,基于自动化行政的过程,即数据来源、算法(黑箱)再到所形成的系统,这样一个数据流向下,有些相关问题可在现有的法律体系中得以部分调整。但更多的救济则需要依赖更具有针对自动化行政特点的救济方式,对此后文仍将进一步加以探讨。
三、对瑕疵指令进行救济的可能路径
基于上述基础,我们可探索性地给出一个对自动化行政中瑕疵指令进行救济的可能路径。
(一) 瑕疵指令的救济路径之一:正当行政程序
从广义的角度来看,行政程序也是救济路径之一,如告知、听证等。上文已讨论过自动化行政会缩减程序,那么这种缩减程序的边界在哪里?是否会因缩减程序产生后续的救济问题呢?这两个问题实际上可以归入一种,即自动化行政指令带有黑箱属性,使得很多程序都在实际上被缩减,使得行政相对人的权利、义务依然受到相应的影响。总结前文所讨论的数个自动化罚款缴纳案例发现:一般来说,对于自动化行政指令而言,更适合被用在能够采用简易程序处理的案件之中。当然,随着科技的发展,未来人工智能如果能够处理复杂的编码和个案情形,也不排除它会从根本上挑战我们现有的行政程序法规范。对于处罚数额不大、情节认定较容易的违法情形,自动化执法完全可以引入,同时为了保障相对人的程序性权利,减少或避免后续出现的救济等问题,应要求当事人知情、确认并认可,而不能单纯依赖自动化执法机器,不然很容易使相对人陷于“无知之幕”的恐慌之中。告知环节本身也应依行政程序法的要求,行政机关应采取短信、网络等电子化方式辅之以书面告知等形式。此外,还有一点需要强调,即依赖自动化行政所作出的决定,在技术手段上需要确保行政相对人,即指令施加对象的可识别性。例如,在很多地方和领域都采取的人脸识别中,对行政主体的识别赋予优先性是基本要求。即使在采用电子化监控设备的道路交通执法中,行政主体对车辆基本信息的识别也是需要被优先考虑的。
除了上述简单程序外,复杂程序中的一些救济程序的采用是否还有可行之处?如听证会。笔者认为,在多数情况下,自动化行政更适宜于可采用简易程序的场合,实际上也就排除了听证会的适用问题。如果自动化行政在获取信息的后续过程中,出现了诸如隐私权的侵扰等问题,也就依然需要程序上的保障,尤其是正当程序的保障。例如,在新冠肺炎疫情防控期间,有些地方要求公职人员“不得通过互联网、社交软件等途径捏造、传播、散布谣言,要保守工作秘密,不擅自发布、传播、泄露非公开发布的疫情防控工作信息” ⑪。2020年2月4日,中央网络安全和信息化委员会办公室发布的《关于做好个人信息保护利用大数据支撑联防联控工作的通知》明确指出:为疫情防控、疾病防治收集的个人信息,不得用于其他用途;任何单位和个人未经被收集者同意,不得公开姓名、年龄、身份证号码、电话号码、家庭住址等个人信息,因联防联控工作需要,且经过脱敏处理的除外⑫。《网络安全法》第43—45条也规定了相应的个人信息保护有关内容。
技术性正当程序要求告知、听证等必要的程序适用[9],尤其当自动化行政决定涉及到公民的人身权、自由权时;同时还须在技术上采用无歧视的数据挖掘技术,避免个人被歧视;此外,还要求行政机关作出一定的理由说明[10]。例如,英国在2018年《数据保护法案》第14条规定,使用人工智能的公共管理部门必须在合理期限内以书面形式就自动化决策内容尽快通知被执行自动化决策的主体,数据主体可以在收到通知后一个月内,要求公共组织重新考虑对自己作出的自动化决策,或由自然人对决策进行重新评估⑬。
(二) 瑕疵指令的救济路径之二:申诉
作为传统的救济方式,申诉是常用的方式。在自动化行政中是否还能适用?其实类似于程序,在特定的情形之下,这些手段仍存在适用的必要性。然而,基于自动化行政的特征,我们需要对现有的申诉、信访制度进行一定程度上的改革以适应信息时代。例如,设立机器智能委员会等专业委员会来辨别判定一些涉及到自动化行政的专业性问题。再如,欧洲议会法律事务委员会主张建立欧洲机器人和人工智能机构;还有些学者主张建立跨国的、独立的、多利益相关的人工智能和数据委员会。他们认为,人工智能不仅仅是一个公用事业,一旦成熟就需要被监管,它更是重塑生活、互动和环境的强大力量,是人类栖息地向信息圈深刻转变的一个部分[11]。
中国实际上也有诸多类似的机构,例如中国自动化学会模式识别与机器智能(pattern recognition and machine intelligence, prmi) 专业委员会成立于1981年,是国际模式识别协会(iapr)的成员组织。此外,还有机器学习专业委员会、自然语言理解专业委员会、离散智能计算专业委员会、智能教育技术专业委员会、智能控制与智能管理专业委员会等。这些委员会更强调专业性,常常容易走向技术精深化的建构路径,而对于公民参与的提升作用还很有限,甚至大多数普通公民无从知晓它们的存在。人工智能专业委员会不应仅仅是行政机关的智囊团,也应当为行政机关和普通公民之间搭建桥梁,对于自动化行政决策发挥说明、阐释作用。在处置申诉、信访过程中可以借鉴这种专业委员会的设置目标,即加入专业性的考量因素,借助第三方委托、协助等方式,更好地提升申诉、信访处置的水平以及行政机关处理自动化行政所涉问题的能力。如健康码实施至今,各地都有设立复核制度,通过网络化的复核实则也是信息化时代的一种申诉方式。
下一步,司法实践领域可借鉴英国法的经验,设立数据保护专员(data protection officer)为数据控制者提供数据方面的建议,处理申诉。实际上,我国有些地方实践中已有类似的做法,例如《上海市公共数据和一网通办管理办法》第43条规定,公共管理和服务机构应当设置或者确定专门的安全管理机构并确定安全管理责任人⑭。安全管理责任人与英国的数据保护专员角色多少有些类似,但是不同点在于,安全管理责任人多为行政机关内部的工作人员,常以技术责任为主,并不扩展到申诉等后续责任的处理。值得注意的是,由于自动化行政的“即时性”更强,因此在有相应系统的情形下不能或者不必适用传统的时效制度规定。相应地引起行政相对人权益减损的时效规定也需考虑作出调整,尤其是一些可以及时确定的救济措施可在第一时间予以处理,如健康码信息的复核,一旦发现问题需及时予以恢复。
(三) 瑕疵指令的救济路径之三:行政复议和行政诉讼
针对瑕疵指令所导致的不同后果,行政程序、行政活动抑或事实行为更易在复议和诉讼环节发挥作用。总体上,更多情况下,数据来源的瑕疵在自动化行政决定中更容易构成复议和诉讼中的证据来源。算法瑕疵在理论上是有可能构成复议、诉讼的直接审查对象的,也就是说,伴随着法院审查算法能力的加强,未来也应具备审查算法的能力。系统瑕疵,则更多被归入事实行为,即使因此产生了对相对人权利义务的影响,也有复议、诉讼的可能性。在现有的法律体系下,审查对象实际上依然只是依据自动化行政所作出的相应的决定,而非自动化行政本身。
在复议和诉讼环节,涉及到自动化行政的案件需考量几点:首先,从系统的设定、算法的设计等方面来看,自动化行政在当下更多地发挥了“辅助”和“助手”的功能,即便在直接作出决定的情形中也是如此。因此,在绝大多数情形下,相应责任也应归由行政机关及其工作人员承担,除非有相反证据可以排除其责任;其次,举证责任的分配或者相关问题的解释都应本着有利于行政相对人的角度来进行。例如,在上述指导性案例26号“李健雄诉广东省交通运输厅政府信息公开案”中,一审法院认为,由于广东省人民政府“政府信息网上依申请公开系统”作为政府信息申请公开平台所应当具有的整合性与权威性,如未作例外说明,则从该平台上递交成功的申请应视为相关行政机关已收到原告通过互联网提出的政府信息公开申请。至于外网与内网、上下级行政机关之间对于该申请的流转属于行政机关内部管理事务,不能成为行政机关延期处理的理由。从最高人民法院选择此案例作为指导性案例的原因来看,也是因为本案例对于网络电子数据证据效力的认定正确,充分考虑了当事人举证能力平衡问题,对于规范行政机关网上受理政府信息公开申请,保护公众依法申请政府信息公开的权利具有一定意义[12],本案例对于指导类似案件的审判具有积极作用。当然在很多情形下,自动化行政所涉及的电子化文件,在行政诉讼或者复议中实则转化为证据,可适用行政诉讼证据规则等来加以认定。实际上,随着自动化行政的发展,更需要加强对事前、事中的控制,司法机关作为最后的救济主体,在未来会面临着更多算法审查的挑战。
结语
自动化行政为我们编织了一张密密麻麻的网络,使得本就涉及“从摇篮到坟墓”的行政法学内容更加与公民生活息息相关。面对数字化,行政机关既可以利用自动化行政,提高行政效率,但也会因自动化行政,对正当程序、隐私保护、意思自治等产生影响。这也是一种新型的技术风险,行政机关可以将规则通过机器编码化来防范与应对。由此,如何确定这些编码,确定算法仍将依赖于法律与信息技术专家自身的努力。
李建良曾指出,ai发展若要有与之相应的良好人文条件和思辨环境,认识论与规范论二者交叠互传的思考元素须进入公法秩序之中[13]。当人类面对铺天盖地、无边无际的数位入侵时,法律制度与秩序是否需要“人性保留”的规范机制和实践构想,还需要慎重考虑。换言之,作为可能与自动化行政时常相伴的人类,在系统创设之时便应考量到尊严、平等、公平等人性价值,即先要去尽可能避免后续所产生的问题。自动化行政瑕疵指令的处理,需要我们充分考量自动化行政特点,在必要情况下仍然需要辅助于人工复核等手段。如果将自动化行政视为行政过程,我们更需要从纷繁复杂的网络化表象中,厘清各种法律关系、行为属性,以确定后续救济的相应路径。
然而实际上,基于其独特性,仍存在诸多需要进一步探讨的问题。可以说,技术革命将影响法律指令的结构,以及代表公权力的行政主体与相对人之间的关系。甚至还有学者认为,未来将更为强调立法者如何选择目标,而不是如何实施法律,学术界对司法行为等主题的兴趣将逐渐消失[5]53。对此,我们不得而知。但从困在算法里的骑手们⑮到因北斗掉线而被处罚直至自杀的司机[14],自动化行政以及技术革命所带来的挑战已然无法回避。深处算法时代,行政法的“变”与“不变”仍待我们进一步探究。
注释:
① “李健雄诉广东省交通运输厅政府信息公开案”,参见广东省广州市越秀区人民法院一审行政判决书(2011)越法行初字第252号。
②参见《董明珠闯红灯被交警公示?人脸识别出错闹乌龙》,https://baijiahao.baidu.com/s?id=1617794515008000899&wfr=spider&for=pc.
③ 参见公安部关于修改《道路交通安全违法行为处理程序规定》(公安部令第157号)。
④ “高瑞丽与郑州市公安局交警十大队公安交通处罚案”,参见河南省郑州市金水区人民法院一审行政判决书(2014)金行初字第124号。
⑤ 参见《上海市医疗卫生人员权益保障办法》(上海市人民政府令第40号,2021年3月1日发布)。
⑥ 参见《“杭州健康码”网络复核通道开通》,杭州新闻网,https://hznews.hangzhou.com.cn/chengshi/content/2020-02/16/content_7677066.htm.
⑦ “方毅诉金华市公安局交通警察支队公安行政管理、道路交通管理二审行政案”,参见浙江省金华市中级人民法院二审行政判决书(2020)浙07行终字195号。
⑧ “田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案”,参见西安铁路运输法院一审行政判决书(2017)陕7102行初1115号。
⑨ general data protection regulation(gdpr)即《通用数据保护法案》于2018年5月25日正式生效。其中便强调了数据安全和隐私保护问题,强调数据隐私是公民的基本权利。
⑩ “高瑞丽与郑州市公安局交警十大队公安交通处罚案”,参见河南省郑州市金水区人民法院一审行政判决书(2014)金行初字第124号。
⑪ 参见《通化市关于严明新冠肺炎疫情防控期间纪律要求的通知》(中共通化市纪律检查委员会通化市监察委员会2020年2月14日发布)。
⑫ 参见《关于做好个人信息保护利用大数据支撑联防联控工作的通知》(中央网络安全和信息化委员会办公室2020年2月4日发布)。
⑬参见data protection act 2018, https://www.legislation.gov.uk/ukpga/2018/12/contents.
⑭ 参见《上海市公共数据和一网通办管理办法》(沪府令9号)。
⑮ 参见《外卖骑手,困在系统里》,《人物》微信公众号,2020年9月8日发布,http://baijiahao.baidu.com/s?id=1677231323622d6633&wfr=spider&for=pc,访问日期:2021年2月5日。
参考文献:
[1]ari ezrz waldman. power, process, and automated decision-making[j]. fordham law review, 2019, 88(2): 613-632.
[2]埃里克·布莱恩约弗森, 安德鲁·麦卡菲(andrew mcafee). 第二次机器革命: 数字化技术将如何改变我们的经济与社会[m]. 蒋永军, 译. 北京: 中信出版社, 2014.
[3]郑戈. 算法的法律与法律的算法[j]. 中国法律评论, 2018(2): 66-85.
[4]瑞恩·卡洛, 迈克尔·弗鲁姆金, 伊恩·克尔. 人工智能与法律的对话[m]. 陈吉栋, 等译. 上海: 上海人民出版社, 2018: 260.
[5]赵万一, 侯东德. 法律的人工智能时代[m]. 北京: 法律出版社, 2020.
[6]sunstein, c. r. of artificial intelligence and legal reasoning[j]. university of chicago law school roundtable, 2001, 8(1): 29-36.
[7]edith ramire, julie brill, maureen k. ohlhausen, terrell mcsweeny. big data a tool for inclusion or exclusion? understanding the issues[r]. ftc report, 2016: 1-50.
[8]citron, danielle keats. technological due process[j]. washington university law review, 2008, 85(6): 1249-1314.
[9]coglianese cary, lehr david. transparency and algorithmic governance[j]. administrative law review, 2019, 71(1): 1-56.
[10]凯伦·杨, 马丁·洛奇. 驯服算法: 数字歧视与算法规制[m]. 林少伟, 等译. 上海: 上海人民出版社, 2020: 28.
[11]corinne cath, sandra wachter, brent mittelstadt, mariarosaria taddeo, luciano floridi. artificial intelligence and the "good society": the us, eu, and uk approach[j]. science and engineering ethics, 2018, 24: 505-528.
[12]石磊. 《李健雄诉广东省交通运输厅政府信息公开案》的理解与参照——行政机关内部处理程序不能成为信息公开延期理由[j]. 人民司法·案例, 2015(12): 16-18.
[13]李建良. 台湾公法的当代思维——跨入2020年代的回叙与挑战[j]. 月旦法学杂志, 2020(5): 108-117.
[14]伍爱群, 叶曦, 等. "北斗掉线" 问题暨北斗导航系统改进之建议[j]. 中国科技信息, 2021(10): 43-45.
作者简介:胡敏洁,法学博士,浙江大学光华法学院教授。
文章来源:《北京行政学院学报》2021年第4期。