当前位置:舍宁秘书网 > 专题范文 > 公文范文 > 算法行政:文献述评与研究展望

算法行政:文献述评与研究展望

时间:2024-11-19 10:30:02 来源:网友投稿

刘 特 郑跃平 曹梦冰

过去二十年间,各级政府部门广泛利用数字技术来改善组织运行,提高服务供给质量及治理效能,数字治理能力不断提升。近两年来,基于人工智能的算法决策系统逐渐应用于公共治理领域。例如,警务、刑事司法等使用算法进行风险评估,降低犯罪率(Carlson,2017;
Hamilton,2019;
Nishi,2019;
Vogl et al.,2020;
Grimmelikhuijsen &Meijer,2022)。人工智能算法对公共部门决策的影响及其机理开始受到学者们的关注(Nagtegaal,2021;
Keppeler,2023)。一些学者认为,算法技术的应用有助于改善韦伯式的机械官僚主义,提高行政效率,降低决策成本,改善决策质量,同时维护公共部门的核心价值,如公平、公正等(Cordella &Tempini,2015;
Janssen &Kuk,2016;
Vogl et al.,2020)。

与此同时,公共部门的算法应用面临一系列挑战。一方面,应用过程与效果受到政府内外部多方面因素的影响和制约。例如,算法不透明性与技术不确定性、行政人员算法知识与能力、制度环境、公共精神等因素影响着算法在公共部门中的使用(Danaher et al.,2017;
Andrews,2019;
Vogl et al.,2020;
Wanckel,2022;
Fest et al.,2023)。同时,公众对政府的信任度以及对算法透明度的感知等,影响其对应用算法的智能政务服务的使用及评价(Wenzelburger et al.,2022;
Gaozhao et al.,2023;
Horvath et al.,2023;
Wang et al.,2023)。另一方面,算法应用的逐步深入带来了多种潜在风险,对现有制度体系、组织流程、组织理念等形成一定冲击。一些研究发现,算法系统的不透明性、缺乏可解释性和可理解性,以及公共部门对算法技术不断增强的依赖性,会对公共部门的专业知识、决策能力、自主性等形成挑战,进而引发问责制、合法性、信任以及伦理等方面的问题(Coglianese &Lehr,2017;
Berman,2018;
Andrews,2019;
Busuioc,2021)。此外,算法系统的应用可能会对依法行政、公开公平、程序正当、基本权利保护等公共行政的基本原则产生负面影响(Yeung,2018;
Faúndez-Ugalde et al.,2020;
Suksi,2021;
Yalcin et al.,2023)。

为更好地理解算法对公共部门的行政理念、组织运行、行政行为等带来的系统性变化与影响,以及算法与组织间的互动关系,了解现有算法行政的研究全貌进而推动该领域的研究进程,本文旨在系统梳理算法行政既有研究成果的基础上,尝试回答以下几个问题:算法行政的研究现状如何?算法行政的缘起与内涵是什么?算法行政的组织形态、效果评价、影响因素、风险类型与规制等是怎样的?文章内容安排如下:首先,从文献来源与计量分析层面,对算法行政现有研究进展概况进行梳理;
接着,对这些研究的主要议题和内容进行系统性讨论;
最后,进行总结并提出未来研究建议。

(一)文献来源

本文通过Web of Science(WOS)数据库进行算法行政相关文献的检索和筛选。步骤如下:第一步,选取WOS核心合集中的SSCI期刊;
第二步,选取“administration by algorithm”“algorithm &public administration”“algorithm &government/ public sector”“algorithm &governance/management”和“algocracy”(“&”表示检索逻辑为“and”,“/”表示检索逻辑为“or”)等作为检索主题词;
第三步,将文献发表年份限定在2013年至2023年,研究领域设定为“public administration”(公共管理)、“political science”(政治科学)和“law”(法学)。第四步,补充检索电子政务领域的权威期刊GovernmentInformationQuarterly上的相关文献。共检索出193篇文献(检索日期为2023年12月12日)。

对初步检索的结果进行合并去重后,逐一阅读文献标题、摘要和正文,做进一步人工核对,从以下三个方面进行筛选:(1)在研究对象上,剔除关注私人部门算法应用或未明确指明算法应用于公共部门的文献;
(2)在研究内容上,剔除仅关注算法的技术或法律后果而非公共部门行政效果及影响的文献;
(3)在文章类型上,剔除书评、综述类文献等。最终得到58篇英文文献作为本文的分析对象。

(二)文献计量分析

从文献数量来看,当前算法行政相关研究尚处于起步阶段,总量不多,但呈现快速上升趋势(如图1虚线所示)。超过六成的相关文献(37篇)于近三年发表,平均每年12.3篇。随着算法及相关技术在公共部门被进一步应用,算法行政逐渐成为公共管理领域的重要议题。

图1 2013—2023年的发文数量

从发文期刊来看,如表1所示,算法行政相关论文主要发表在GovernmentInformationQuarterly,ArtificialIntelligenceandLaw,PublicAdministrationReview和PublicManagementReview等电子政务、公共管理和人工智能法学领域的核心期刊上,反映了国际期刊对算法行政这一议题的广泛关注。

表1 主要发文期刊及发文数量

关键词是文献内容的重要体现,本研究对58篇英文文献的关键词进行了统计,共得到33个高频关键词(频次≥2)。如表2所示,高频关键词可大致分为四类。第一类是与算法相关的技术性术语,如“artificial intelligence/AI”“algorithm(s)”“big data”“machine learning”等;
第二类强调算法应用和影响的行政场域,如“governance”“decision-making”“accountability”“policy”“service(s)”“bureaucrat/bureaucracy”“discretion”等;
第三类涉及算法特征及其功能,包括“automated/automation/automatic”“smart/intelligent”“predictive/prediction”和“computational”等;
第四类则反映公众对算法应用的感知与评价,例如“justice”“transparency”“trust”“discrimination/discriminatory”和“fairness”等。

表2 高频关键词

此外,本研究对58篇英文文献的研究方法进行了梳理。除19篇文献侧重于理论分析与规范性探讨(占比33%)外,有39篇文献是有明确研究方法的实证研究,其中定性研究居多(24篇,占比41%),定量研究数量略少(15篇,占比26%)。结合发表年份来看,2013—2019年的算法行政相关研究多以理论性探讨为主,近4年发表的34篇论文多为实证研究。具体而言,定性研究以单案例和比较案例研究为主,借助访谈法、观察法等收集资料,通过文本编码和分析来探讨算法嵌入公共行政的现状、影响及挑战,研究场景涉及税务审计、刑事司法、移民管理、就业与社会福利等;
定量研究除二手数据分析外,广泛使用了调查实验(survey experiment)、现场实验(field experiment)等前沿方法,探究公众对公共部门算法应用的看法、评价以及偏好,尤其关注公众对人类官僚和算法官僚在信任度、公平性、接受度等维度上的感知差异。

(一)缘起

关于算法行政兴起的探讨多从技术-社会视角展开,强调政府收集和管理数据的悠久历史,尤其是随着机器学习相关技术的快速发展,大数据与开放数据的兴起,推动了算法支持下新型官僚组织的出现(Janssen &Kuk,2016;
Vogl et al.,2020;
Levy et al.,2021)。从农业社会、工业社会到信息社会,技术的更新迭代推动着政府组织变革,也促进了政府治理理念、模式、机制等的创新。在此背景下,行政制度的内涵及特征也随着社会发展不断演变。

传统官僚主义将程序公平和效率的理念嵌入到依照规程办事的政府运作机制中(Vogl et al.,2020)。然而,20世纪中期以来,学者们开始质疑传统官僚机构应对日益复杂的现代化发展的能力,认为其繁琐和不灵活。作为回应,20世纪80年代的新公共管理(NPM)强调引入市场机制以克服现代化发展过程中公共管理面对的一系列挑战。与此同时,信息技术不断发展,公共部门基础设施逐步电子化和信息化(Margetts,1999)。20世纪90年代,计算机在公共部门日益普及,加速了信息交流与互动(Meijer et al.,2021)。公共部门依托计算机实时传输和处理信息,以可预测的方式处理复杂性问题,化解传统信息处理的局限性(Vogl et al.,2019)。伴随着这些变化,学者们强调以重新整合、基于需求的整体主义、数字化变革为特征的数字时代的新公共行政范式正在出现(Dunleavy et al.,2006;
Margetts &Dunleavy,2013;
Vogl et al.,2019)。

近年来,因算法在预测性、精准性等方面的优势,公共部门逐步引入人工智能、机器学习等来构建算法系统,辅助决策制定和公共治理,这进一步推动了公共部门的组织变革(Bullock,2019;
Coglianese &Lehr,2019;
Vogl et al.,2020;
Alon-Barkat &Busuioc,2023)。算法系统根植于政府数据收集、分析,并随着技术进步,在政策制定、公共服务提供等方面发挥着重要作用(Levy et al.,2021)。一些研究开始关注强调数据采集和计算的算法如何让数据在公共部门中产生新的价值(Allard et al.,2018;
Mergel et al.,2016)。相较于传统数字技术,算法深度嵌入政府工作流程,实现了大规模数据的采集和整合,也在一定程度上减少了官僚主义作风,改善了政府决策(Janssen &Kuk,2016)。因此,从组织与技术变革视角来看,算法创造了新的组织环境,公共部门的管理者使用算法来提升自主性和行政能力,以应对制度和政策的复杂性(Meijer et al.,2021)。换言之,算法不仅改进着政府决策分析能力,提升办公自动化水平,也在通过信息、机构与制度等来影响科层组织结构,进而改变公共行政的范式(Vogl et al.,2020)。

事实上,公共部门使用算法来重新安排其行为和决策程序,推动了组织的算法化进程(Meijer et al.,2021)。在此过程中,基于算法系统作出的决策和安排代表着一种技术理性,关注效率和有效性,且这种技术理性可以帮助克服伦理和合法性问题(Grimmelikhuijsen &Meijer,2022;
Bracci,2023)。同时,算法的引入也在推动着一种独立于传统科层体系并强调共治、自治的治理模式的出现(Gritsenko &Wood,2022),即算法行政模式。作为一种新的官僚行政模式,将算法与管理制度、文化环境相结合,发展人、算法和机器可读的电子文件,从而发挥技术理性来处理复杂性问题,克服传统官僚主义的局限性,提升公共部门的履职能力和公共服务质量,维护公共部门的核心价值(Vogl et al.,2019,2020;
Bracci,2023)。算法行政也逐渐进入公共管理的研究视野,成为重要的研究议题。

(二)概念界定

算法的兴起,推动了新型技术官僚的出现,传统的行政流程部分地被基于算法的流程所取代(Janssen &Kuk,2016)。针对这一现象,Rouvroy(2013)提出算法治理(algorithmic governmentality)的概念,其本质强调的是算法行政,关注算法对政府行为、运行模式等方面带来的变革。从治理逻辑视角来看,算法行政代表了政府使用算法实现从“治理他人”到“治理自我”的转变;
同时,公众生产数据并接受政府对数据的管理,也被动地参与到算法当中(Janssen &Kuk,2016)。该视角关注算法的应用对于政府治理、公众参与等方面产生的影响。相关实证研究多聚焦算法在监管领域的应用,强调利用算法构建新的监管体系,改善政府监管能力,提升政府规制水平(Yeung,2018;
Andrews,2019;
Meijer et al.,2021;
Guo &Kennedy,2023)。

从技术逻辑视角来看,技术的快速发展让算法逐步参与到公共决策过程中(Wang et al.,2023),推动着公共关系的转变。算法改善了决策效率与准确度,算法行政是在此基础上发展的新型官僚行政模式。政府将行政人员与算法技术相结合,克服传统官僚主义作风,改善公共部门税收、监管和福利管理等,提升了决策能力和质量(Janssen &Kuk,2016;
Coglianese &Lehr,2019;
Vogl et al.,2020)。Williamson(2014)基于人机关系视角发现,算法在政府组织中的部署与应用推动形成了基于人机交互和机器学习技术的治理模式,改变着政府与公众之间的关系,公众也作为个性化服务的共同生产者与算法进行交互。Hermstrüwer和 Langenbach(2023)进一步结合机器学习算法的嵌入程度,探讨不同类型的人机交互如何影响用户的公平感知和程序偏好。

从政治逻辑视角来看,随着算法相关工具的日益成熟,政府对算法在辅助决策制定、风险评估等方面的依赖程度也不断增加,正悄然推动公共部门出现一种新型官僚主义。这种官僚主义越来越多地通过算法来实现权力运作(Pasquale,2015),引起了学者们从政治层面对算法在公共部门中的应用及其影响的思考。Danaher(2016)提出算法统治(algocracy)的概念,用以描述在计算机编程算法基础上组织和构建的特殊治理体系。算法统治以算法和算力为依托,存在算法系统不透明、未经授权收集分析数据等风险(Danaher,2016;
Bracci,2023),会对民主产生消极影响(Alnemr,2023)。基于对算法合理性和政治性的分析,Hermstrüwer和Langenbach(2023)将数据分析师和决策者之间的互动描述为“算法政治”(politics of algorithms)。在此互动过程中,数据分析师借助大数据向决策者提供信息的同时追求个人利益来影响决策(Hermstrüwer &Langenbach,2023)。

多元视角下的算法行政具有不同的理解侧重点和面向。治理逻辑视角下的算法行政概念着重突出治理理念、主体和体制的转变,技术逻辑视角则关注算法技术工具创新所带来的公共关系转变,政治逻辑视角更侧重算法技术带来的公共行政权力形态的重构。整体来看,从不同视角展开的算法行政探讨都关注了技术嵌入对组织结构的影响,为此有必要对传统行政与算法行政进行比较分析。Vogl等(2020)从组织、服务提供、知识、工具、价值等五个维度对传统官僚制与算法官僚制进行比较,认为算法在公共部门的应用并非全盘取代了传统组织机制,而是改变了行政人员和治理工具之间的社会技术关系以及工作方式(如表3所示)。正如技术执行理论强调,技术在政府部门的应用会推动组织结构、服务流程等的变革(Fountain,2004)。算法在公共部门的应用,推动了等级森严的组织架构转向部门协作化,服务呈现从强调程序性规则转向关注用户需求,部门信息封闭化转向开放共享,数据信息纸质存储转向数字化存储,价值导向也由关注程序平等转向结果平等,进而体系化地改变了传统的组织运行方式(Vogl et al.,2020)。算法官僚制认为,复杂的社会问题可以被解构为定义清晰、结构合理、范围明确的问题,并借助算法予以解决(Janssen &Kuk,2016)。总体而言,技术的应用旨在赋能政府改善治理能力。在数字时代,算法官僚制可被视为传统官僚制发展到一定阶段的新的组织形态。

表3 传统官僚制与算法官僚制

与算法行政关联紧密的另外一个概念是算法治理,两者相关但差异明显。一些研究认为,算法行政聚焦政府主体,关注算法应用对行政模式、官僚行为、服务提供、公众感知等带来的影响以及由其产生的风险(Williamson,2014;
Janssen &Kuk,2016);
算法治理则是在政府运行、企业管理、社会发展等多个领域被广泛使用的概念,关注对人工智能技术本身的治理,以确保算法公正透明,避免算法歧视,维护社会公平(Danaher et al.,2017;
Andrews,2019)。从该角度看,算法治理概念边界更加广泛化,使用主体更加多元化,算法行政则进一步将主体聚焦于公共部门,关注算法在公共部门应用后带来的一系列变革。也有一些研究并未对两者进行严格区分,强调随着算法技术日益嵌入传统治理体系,社会中的知识结构、权力机制和主体状态发生改变,催生出由政府主导的算法治理新模式(Rouvroy,2013;
Janssen &Kuk,2016)。在这一视角下,算法行政被视为基于算法的治理方式,算法扮演着重要的工具性角色。算法的引入给传统治理模式的核心特征带来潜在和变革性的改变(Gritsenko &Wood,2022),进而推动算法治理模式的出现。

基于上述讨论,本文认为“算法行政”是在算法与公共行政融合背景下,传统官僚制发展到一定阶段的一种新型行政管理模式。算法行政模式着眼于技术-社会层面人工智能对公共行政的影响,强调算法技术在政府政策制定、服务提供、组织管理等方面的应用以及由其导致的行政模式变革,目的在于提升行政效率,优化资源配置,改善服务能力,促进公共价值创造。

(一)组织形态

随着公共部门逐步使用算法来改善组织运行能力、服务水平与决策质量等,一些传统的行政流程逐渐被嵌入算法的新流程所取代。受到算法特性、算法-人的互动方式以及算法应用场景差异化的影响,算法行政的组织形态也呈现出多样化。

基于算法本身的特性,Janssen和Kuk(2016)结合算法的自动化与复杂性程度,将用于决策制定和治理的算法化组织形态划分为四种类型:低自动化-低复杂性算法系统(如海关检查)、高自动化-低复杂性算法系统(如社会福利)、低自动化-高复杂性算法系统(如移民入境)、高自动化-高复杂性算法系统(如结合数据库与个体特征精准锁定危害公共安全人员)。Danaher等(2017)则基于算法系统的社会和规范属性提出“自上而下”(系统运作受限于技术人员定义算法规制的详细程度)和“自下而上”(系统引入机器学习算法,并基于大量数据训练实现预测和决策)两种类别。Meijer等(2021)、Li等(2023)根据算法系统的作用,通过案例研究将官僚组织算法化的形态划分为“算法笼子”和“算法同事”,前者强调算法促进了组织工作流程标准化和决策集中化,增强了组织内部控制;
而后者认为算法强化了现有专业判断,特别是扩大了信息专家的自由裁量权;
两种模式的形成并非由算法系统的技术特征所决定,而是取决于社会规范和组织对算法系统功能的解释。

Danaher等(2017)关注算法行政中人的参与,认为其是一个治理的循环系统,包括从信息获取到处理、使用、反馈和学习的反复循环过程。根据算法和管理者的互动方式不同,Nagtegaal(2021)强调算法行政过程中包含系统级、屏幕级和街道级等三种类型的官僚主义。其中,系统级指的是当算法完全自动化时,算法可以取代管理者的角色;
屏幕级指的是当技术为决策者提供信息时,仍然需要决策者进行判断;
街头级则强调,决策制定更多依赖传统工作流程,而非技术工具(Nagtegaal,2021)。从屏幕级转变为系统级官僚主义时,与公众互动的不再是行政人员,而是由算法和机器学习驱动的应用程序(Considine et al.,2022)。此外,Hermstrüwer和Langenbach(2023)基于人机交互的视角,通过实验研究的方法,将算法行政划分为完全人类自由裁量权、高度人类参与-基于算法预测、低度人类参与-基于算法预测、完全基于算法决策等四种形式。

随着预测性算法被逐步应用于政府监管以及风险评估当中,Yeung(2018)则将算法系统划分为两种类型:响应式算法系统和先发制人算法系统。前者基于历史数据的算法分析触发自动响应,而后者则基于对历史数据的算法评估来预测未来行为并采取行动。O’Donnell(2019)关注了算法在警务领域的应用,通过预测性算法识别未来容易发生犯罪活动的区域和存在高风险的个人。一些刑事司法领域的研究则指出,随着预测性技术的发展与应用,部分地方政府已通过立法鼓励或要求法官将累犯风险评估算法纳入保释、假释和量刑决定中(Carlson,2017;
Hamilton,2019;
Nishi,2019)。

算法在公共决策中的应用也吸引了学者们的关注。van der Voort等(2019)认为,依靠算法技术处理数据并进行决策主要遵循信息和决策两种逻辑,信息逻辑强调信息源的多样性是信息质量的重要基础,决策逻辑则更加重视信息处理结果是否有效且合法。Coglianese和Lehr(2019)则关注机器学习算法对决策结果的影响程度,基于算法输出与政府最终采取行动对应的程度,强调存在两类情形,一类是由算法直接作出决策,另一类则仅将算法输出结果作为政府决策参考,而后者是当前的主要形式。

综上所述,现有研究从算法特性、算法-人的互动方式以及算法应用场景等对算法在公共部门中的应用形态进行分类与探讨。事实上,算法在应用于公共部门的过程中,会重新排列并嵌入组织流程,进而促进组织重组(Meijer et al.,2021),形成多元的算法应用形态。这些研究为我们理解不同情境下算法行政的实际组织模式和特点提供了重要参考。

(二)效果评价

Levy等(2021)强调,算法工具逐渐成为官僚机构基础设施的重要组成部分,需要对其进行评估和维护以确保算法系统的正常运作。同时,公众对算法工具的认知与态度,是决定算法系统能否在实践中得到广泛采用的关键因素(Simmler et al.,2023)。为此,有必要从政府和公众两个维度进行算法系统应用的效果评价,以准确理解其对政府运行的系统性影响。

从政府侧来看,Hartmann和Wenzelburger(2021)通过案例研究分析了地方司法部门使用预测性算法系统的主要动力,发现一方面算法预测性风险评分可以将决策的不确定性转变为统计学上的风险,另一方面使用算法分析为决策者提供了避责的可能性。换而言之,公共部门可以将责任转嫁到技术软件上,在一定程度上为风险规避提供了新的策略。Wang等(2022)对社区工作人员开展调查实验后发现,尽管人工智能算法对基层工作人员的自由裁量权构成潜在威胁,但他们仍对人工智能算法持开放和欢迎态度。从算法在公共部门的运用效果来看,Meijer等(2021)结合算法系统的组织模式指出,“算法笼子”模式强化了现有的官僚控制;
而“算法同事”模式则通过算法系统强化了信息专家的专业判断,进而增强其自由裁量权。

从公众侧来看,一项关于美国公众对算法系统态度的调查显示,公众对高风险的自动化决策是否有效、公平或可接受,以及在对自动化系统的监管职责划分上存在分歧(Levy et al.,2021)。基于用户接受度的视角和联合实验的方法,一些研究比较了人类决策和人工智能决策在公众偏好和感知方面的差异,发现公众倾向于选择传统人类决策而非通过人工智能作出政府决策(Gaozhao et al.,2023;
Horvath et al.,2023)。从感知公平视角出发,Hermstrüwer和Langenbach(2023)开展实验研究并基于不同类型的人机交互模型,探讨了公众对算法程序公平的评价,发现当人类高度参与算法辅助公共部门决策过程时,程序被认为是最公平的。Yalcin等(2023)则基于公众信任视角,通过实验研究表明,个人对算法法官和人类法官的信任程度取决于案件的性质。也有研究关注算法行政背后的公共价值,通过调查实验比较了规则驱动算法和数据驱动算法决策对公众公平感和接受度的影响,发现公众认为规则驱动的算法决策普遍比数据驱动的算法决策更公平、更可接受(Wang et al.,2023)。

此外,一些研究基于民主理论,从决策者和公众的角度出发,按照积极和消极两种情境探讨人工智能算法在政治决策过程的应用效果。König和Wenzelburger(2020)强调,在政治系统输入维度,算法为公众提供了工具来获取政治信息,但公众意志的形成也受到了算法个性化信息的干扰,进而影响其真实判断;
在处理能力维度,算法可以为政治行动者和公众提供有关决策过程的相关信息,但对算法依赖的增加可能会形成一种更偏技术官僚的治理模式;
在输出维度,算法的应用会让公共服务反应更加敏捷高效,与此同时也会加剧公共行政问责。一些社会组织则通过参与地方政府工作,为其提供咨询服务并发挥监督作用,或者从外部向地方政府施加压力,来影响公共部门算法应用的实施(Levy et al.,2021)。

整体而言,政府行政人员对于算法在公共部门中的应用持开放包容态度,但也意识到不同算法运作模式可能会对自由裁量权产生一定冲击。公众对于算法系统的接受度、信任度也存在争议,对传统决策模式的依赖度依然较高。因此,有必要进一步分析公共部门中算法应用以及政府、公众对其效果评价的影响因素及其机理。

(三)影响因素

算法作为社会技术系统的一部分,嵌入在特定的社会背景中并具有带来社会影响的巨大潜力(Solow-Niederman,2020;
Wenzelburger et al.,2022)。在公共部门的应用过程中,算法的不透明性与技术不确定性、政治家和公共部门工作人员的能力与认知、技术专家的能力及态度、制度的复杂性等诸多因素都会对算法应用以及算法行政产生影响(Danaher et al.,2017)。从公共价值理论视角出发,Andrews(2019)分析了公共目标(是否明确)、授权环境(如政治支持、专家认可)、治理能力(如交付、监管、协调和分析)等如何影响算法决策制定以及公共价值创造。

从政府侧来看,数字素养、制度环境、价值理念等影响着公共部门算法行政的态度及评价。Vogl等(2020)结合案例研究、调查问卷和访谈,分析公共部门从街头级官僚到系统级官僚的转变,发现预测分析工具依赖工作人员的背景知识来实现集体智慧,并在数据收集、处理和呈现等方面产生积极的反馈循环。Wanckel(2022)关注大数据算法系统能力建设的初始阶段,从新制度理论视角出发,通过案例分析发现,政府政策制定中大数据算法系统的应用取决于相应的制度环境,系统、组织和个人能力建设会受到组织机构框架影响。此外,公共部门引入算法推动了数据专业人员这一新型官僚的出现,他们在决策过程中行使自由裁量权,对于公共价值的感知尚未成为约束其行为的重要因素(Fest et al.,2023)。换言之,数据专业人员公共精神的匮乏可能会影响算法系统公共价值目标的实现。

就公众侧而言,信任是影响公众接受和评价公共部门算法应用的重要因素。Wenzelburger等(2022)开展的一项调查研究表明,公众对算法的接受度很大程度上取决于对其于部署算法组织的信任、算法应用的领域、算法要解决的问题与自身相关度等。一些联合实验也证实,公众倾向于选择官僚作出的决策而非算法决策,主要受到不同行政部门的信任差异以及政策领域差异性等因素的影响(Gaozhao et al.,2023;
Horvath et al.,2023)。与此同时,算法透明度也是影响公众接受与使用的重要维度,其不仅影响公众对算法技术本身的信任,也会部分影响公众对决策者的信任(Grimmelikhuijsen,2023)。此外,Wang等(2023)发现,公众对算法决策系统的公平性感知和接受度很大程度上取决于他们对决策环境的熟悉程度。

综上所述,算法在公共部门中的应用受到技术、制度、能力等多重复杂因素的影响。同时,对于政府而言,算法素养、制度环境、价值理念等会影响其使用和评价;
对于公众而言,对信任、算法透明度、决策环境等方面的考量则会影响他们对算法系统的态度。从实践来看,政府决策中使用先进的算法技术并不一定能改善公众评价,相反,协调稳定的人工智能系统似乎是更安全的选择(Gaozhao et al.,2023)。

(一)风险识别

算法在公共行政领域应用的不断深入带来了一系列潜在的风险,有必要对其类型和成因进行分析,以探寻有效的应对方式与路径。现有算法行政风险的相关研究主要围绕不透明的“黑箱”、技术依赖、民主问责、偏见与歧视和制度适应性等方面展开。

算法系统的不透明性是算法行政研究关注的首要风险。Pasquale(2015)在其著作《黑箱社会:控制金钱和信息的数据法则》中提出,算法将人类置于一个充斥着“神秘技术”的黑箱社会中,对算法黑箱充满了担忧。不透明或“黑箱”特质被视为算法的固有属性之一。由于算法本质上是一系列指令和代码,难以转化为通俗易懂的语言(Beer,2017),因此只能被少数掌握计算机科学和数学知识的人访问并理解。同时,算法发展呈现出日益自动化和复杂化的趋势,一个庞大的算法系统涉及复杂、动态的代码设计和人员安排,这使得理解算法及其影响变得更为困难(Janssen &Kuk,2016;
Andrews,2019)。此外,政府往往不具备独立开发算法系统的技术能力,更无法理解算法运行过程的关键细节(Coglianese &Lehr,2017),需要向私人部门购买算法系统并提供长期技术支持。在算法系统开发私有化的趋势下,私人部门以保护商业秘密为由逃避算法公开披露的责任,将进一步加剧算法行政的透明度风险(Carlson,2017)。

技术依赖对官僚主体性地位的冲击则是算法行政研究关注的第二类风险。其根源在于,随着算法在公共行政过程中发挥日益重要的作用,街头官僚的决策能力受到严重挑战(Snellen,2002)。Lipsky(1980)街头官僚理论中自由裁量权和组织权威的相对自主性正在被削弱。现有研究从两个方面表达了对技术依赖的担忧。一方面,高度依赖算法模型的输出结果可能会使法治政府(government of laws)沦为机器政府(government of machines)(Berman,2018),形成一种更偏向技术官僚的治理模式(König &Wenzelburge,2020);
另一方面,私人部门在算法系统开发方面的主导和领先地位预示着私人治理时代的到来(Solow-Niederman,2020),政府对私有化算法系统的依赖导致私人行动者在公共行政中发挥了过大的作用,公私治理界限逐渐模糊(Nishi,2019;
Nitzberg &Zysman,2022)。由于缺乏专业知识,行政官僚往往难以应对复杂的治理挑战,在一定程度上丧失了理解、审查和实施有意义的控制的能力。因此,过度依赖算法系统可能会掏空街头官僚的专业知识与判断力,陷入“专业能力递减”的恶性循环。Busuioc(2021)进一步指出,算法行政同时削弱了官僚合法性的两大根基——官僚专业知识与民主问责。

算法行政对民主价值的损害和所带来的问责困境是相关研究关注的第三类风险。有学者指出,以算法替代人类进行政府决策会加深技术官僚与民主参与之间的鸿沟,塑造不负责任的、计算机化的政府形象(Coglianese &Lehr,2017;
Ziaja,2021)。其原因在于算法决策是在没有民主审议、审查的情况下做出的,这意味着算法行政缺乏公众参与(Solow-Niederman,2020;
Okidegbe,2023)。Alnemr(2023)称之为“走捷径”的民主自治,社会理解和参与的不足反过来会影响治理的合法性和有效性(Guo &Kennedy,2023)。在问责方面,算法系统的不透明性、复杂性、自学习特性和质疑算法的困难,使得对算法系统本身进行审计和监管极具挑战(Danaher et al.,2017;
König &Wenzelburge,2020;
Busuioc,2021)。同时,算法在公共部门的引入改变了传统的责任链条(Bracci,2023),公共管理人员、算法设计者和公民之间的责任关系和方向愈发不明确,责任主体的模糊化进一步加剧了问责挑战。

在算法行政造成的影响方面,算法系统中植入的偏见与歧视一直备受关注。在决策中,偏见(bias)表现为重复性表达特定的偏好、信仰或价值,当决策输出结果对某些群体产生不公平的影响时,偏见就会发展成歧视(discrimination)。现有研究指出,算法系统从来不是中立、客观的,而是必然包含着影响公平的偏见和价值观(Ziaja,2021)。在实践中,预测警务、信贷申请等领域的算法应用被证实具有种族歧视、性别歧视之嫌(Hamilton,2019;
O’Donnell,2019;
Nitzberg &Zysman,2022),进一步扩大了社会和经济不平等。算法偏见的产生有两方面原因。从微观视角来看,算法会重现隐藏在训练数据中的偏见(Busuioc,2021;
Saldanha et al.,2022;
Grimmelikhuijsen,2023)。当用以训练的历史数据或模型参数是有偏见甚至有歧视性的,算法系统就会继承有缺陷的数据,输出损害社会公平公正的预测结果;
程序员的价值观也会有意或无意地嵌入代码(Janssen &Kuk,2016)。从宏观视角来看,算法偏见可能源于系统和数据环境的变化,是更广泛的组织或文化价值观的反映(Janssen &Kuk,2016)。

对政府官员而言,有研究表明,当算法预测结果与人类决策者的刻板印象相符时,决策者会倾向于选择性遵循(selective adherence),从而加剧歧视(Alon-Barkat &Busuioc,2023)。更糟糕的是,隐藏在算法中的偏见和歧视往往难以被发现和质疑,大多数人并未意识到算法可能会造成伤害,想当然地认为算法结果是中立的(König &Wenzelburge,2020)。即使对算法产生了质疑,也会因评估所需的时间、资金成本以及寻找歧视意图证据的困难而放弃(O’Donnell,2019;
Rachovitsa &Johann,2022)。自此,算法陷入了难以被发现、摆脱算法结果错误和自我纠正的负反馈循环(negative feedback loops)(Busuioc,2021),在随后的迭代中更加依赖错误的联系,导致制度化偏见与系统性歧视的生成(O’Donnell,2019;
Fountain,2022)。

制度适应性风险是算法行政研究关注的另一个重要议题。近年来,从法律层面关注宪法、行政法等能否应对算法嵌入公共行政挑战的研究逐渐增多。究其原因,算法系统的嵌入在一定程度上撼动了依法行政、正当程序(due process)、基本权利保护等行政法基本原则(Coglianese &Lehr,2017;
Yeung,2018;
Faúndez-Ugalde et al.,2020;
Suksi,2021;
Yalcin et al.,2023)。在这一议题下,隐私与数据保护成为探讨的热点话题。算法应用程序对大量个人细颗粒度的行为数据进行个性化处理(König &Wenzelburge,2020),往往在数据所有者不知情和/或不同意的情况下收集、分析数据(Danaher et al.,2017;
Bracci,2023),造成了对个人隐私的侵犯。然而,从全球范围来看,现行法律法规对隐私保护仍然不足,算法系统与监管立法框架之间、私人利益与公共利益之间存在难以调和的矛盾。

综上所述,基于算法的行政过程仍是一个无法打开的“黑箱”,技术依赖对官僚主体性地位的影响、民主价值与问责机制的缺失、算法对偏见歧视的固化以及制度适应性风险等构成了算法行政面临的一系列风险挑战。然而,风险不止于此,决策结果的不确定性(Casagran et al.,2021;
Hartmann &Wenzelburger,2021)、定性价值判断定量化、共情能力匮乏(Coglianese &Lehr,2017)、政府权威减弱(Stern et al.,2021)、数字鸿沟(Considine et al.,2022)等问题也逐渐受到关注。

(二)风险规制

算法的应用不仅影响着公共行政的组织运行、管理方式、服务效能等,也关系着公共价值的构建。为实现善政与善治,透明、民主、问责、公平、合法等公共性原则急需回归。因此,如何有效规避算法嵌入所带来的各种风险挑战成为算法行政研究的重要议题。算法行政本质上是工具理性逻辑的产物,其引发的一系列风险挑战涉及公共管理、技术、法律等多个方面,现有研究从价值、技术、监管、制度和协同等视角展开风险规制的探讨。

从价值视角来看,为使公共行政不断适应算法技术的快速变化,需将公共价值注入技术创新过程,在最大程度发挥算法潜力的同时保护公共福祉(Solow-Niederman,2020;
Bunnell,2021)。要求在将算法应用于公共部门的过程中,确保算法是实现政策目标的有效手段,同时在程序上保持公平、公开和公正,而非简单地依赖机械式的程序和规则(Danaher et al.,2017;
Berman,2018)。然而,这并不全是公共部门的责任,以算法透明度为例,有学者指出,当私人部门从提供的公共服务中获益时,就应当遵循与公共部门相同的透明度要求,即使是专有预测算法也应公开信息(Carlson,2017)。

与此同时,用算法对抗算法来实现风险规制是技术视角探讨的重要方向,目的在于通过不断地优化调整算法的程序性设计,应对算法所带来的风险挑战,从而更好地发挥算法的积极作用。在算法行政体系中,对算法应用产生的制度化偏见、系统性歧视等风险进行提前规避,有助于降低决策结果的不确定性(O’Donnell,2019;
König &Wenzelburge,2020;
Hartmann &Wenzelburger,2021;
Fountain,2022)。为改善算法系统的开放水平,除开放源代码和访问共享知识、资源外(Casagran et al.,2021),Danaher等(2017)学者建议公开程序员实时编程和开发算法,如通过直播视频流服务跟踪编码过程。

一些学者从监管视角提出应对算法风险的思路,强调监管工作是确保周到和有效使用算法工具的关键,认为第三方评估、独立的监管机构等能发挥重要作用。不少学者主张开发如算法透明度指数等评估工具和辅助工具(Coglianese &Lehr,2017;
Danaher et al.,2017;
Casagran et al.,2021;
Ziaja,2021),聘请中立的统计专家、机构等对算法模型开展持续、独立的第三方评估,从而促进其发展过程中的实质性和程序性公平。算法的社会影响在实践中常常被低估,因此,要在公共部门部署算法应用前开展影响评估,不得在未经验证的情况下使用黑箱算法(Busuioc,2021;
Fountain,2022;
Simmler et al.,2023)。由于算法监管需要灵活性、敏捷性和专业知识,有学者建议在中央层面设立独立机构,如专门负责监管和公开公共部门算法应用的算法透明度委员会(Bunnell,2021)。一方面,中央机构有权发布和执行强有力的披露和公平要求;
另一方面,独立机构能够确保算法的问责制和公平性落到实处。

从制度视角来看,针对算法应用建立完善的制度规范体系是规制算法行政风险的重要手段。现行制度法规是在人治基础上建立发展起来的,公共职能的行使是在国家与官员之间而非国家与机器之间(Faúndez-Ugalde et al.,2020)。作为新兴技术的算法目前仍是一个缺乏制度规范的领域(Andrews,2019),许多国家对算法应用的管理存在立法空白(Suksi,2021)。因此,算法的制度化、法律化规制成为人工智能时代各国重要的风险防控议题。在将算法应用于公共部门之前,立法者和其他行业的专家们需要围绕人权保护、数据保护和算法问责等议题建立全新的制度规范框架(Rachovitsa &Johann,2022)。为避免算法在公共部门的应用脱离法治范围,避免公共行政决策变成算法规则,学者们强调要针对算法设计、研发及应用的全过程,从事前采用、信息披露、隐私保护、事后问责等环节细化法律规范体系(Coglianese &Lehr,2017;
Alnemr,2023)。

此外,现有研究从协同视角提出,建立多元合作机制,充分融合不同学科领域的智慧并汇聚不同利益群体的力量,来应对算法行政面临的风险挑战。以提升算法透明度为例,不仅需要系统设计者努力解释模型,计算机科学家开发可理解和可解释的模型,还需要公共部门购买者的持续监管,推动系统设计者与领域专家的持续性合作(Busuioc,2021)。为使算法行政更符合民主参与进程,需广泛吸纳多样化的行为主体和利益相关者参与算法在公共部门中的发展与应用,例如政府部门、民间社会组织、跨学科研究人员和技术专家等,进而为有效治理提供全面的数据和见解(Casagran et al.,2021;
Ziaja,2021)。有学者提倡让公民成为算法治理过程的一部分,引导公民“与技术对话”(Janssen &Kuk,2016;
Alnemr,2023),通过让受众与算法广泛接触和互动,实现算法技术与包容性民主相一致(Okidegbe,2023)。

综上所述,现有研究从价值、技术、监管、制度和协同等不同视角探讨算法行政的风险规制与应对。值得一提的是,上述视角并非单独奏效,需将上述视角相融合,凝聚算法开发者、各领域专家、社会公众与组织等的力量,才能促使算法更好地融入公共行政实践中。正如Bruijn等(2022)所言,比单纯设计算法更重要的是各方利益相关者达成共识的协商算法(negotiated algorithms)。

人工智能算法在公共部门的应用推动了以算法为技术基础的新型官僚主义的出现,即“算法行政”。这创新了公共部门的运行方式、治理工具,改变了技术与组织间关系,提升了公共部门应对复杂性问题的能力。但与此同时,也面临算法透明度低、技术依赖、民主问责、偏见与歧视等一系列风险与挑战。为更好地理解算法行政的理论研究现状进而为未来研究提出针对性建议,本研究基于WOS数据库筛选的58篇英文文献,围绕算法行政的缘起与内涵、组织形态、效果评价、影响因素、风险类型与规制等议题进行了系统性梳理与分析。

算法行政的相关理论探讨从技术-社会视角展开,强调算法行政是一种新的组织模式,其出现和应用与技术发展、社会进步等密切相关。与传统行政模式相比,算法行政创新了组织架构、服务提供、信息流动、数据储存、价值导向等,与传统组织机制之间是赋能而非替代关系(Vogl et al.,2020)。本文认为,“算法行政”是算法技术与公共行政融合背景下传统官僚制发展演变形成的一种新型组织模式。其在实践中呈现多样化的形态与方式,推动了现有研究从算法特性、算法-人的互动方式出发对算法行政进行类型划分,并探讨算法在政府监管、政策制定等领域的应用和影响。在算法行政的效果评价方面,现有研究表明,公共部门人员对算法应用多持开放包容态度,但也意识到算法在辅助决策制定、优化服务流程等的同时,会对自由裁量权产生冲击;
公众则更倾向于传统决策方式,对算法应用的接受度、信任度有待进一步检验。究其原因,现有研究表明,算法在公共部门中的应用受到技术环境、制度环境、组织能力、公共价值等多重因素影响,这也为公共部门推进算法等数字化技术的应用提供思考。

与此同时,伴随着算法嵌入组织程度的不断加深,其带来的风险也引起了学者们的关注。就算法本身而言,技术的复杂性、不透明性,使得基于算法的行政过程存在一系列黑箱问题;
就公共部门而言,其对算法的依赖程度不断增强,逐渐削弱了自由裁量权和组织权威的相对自主性,进而引发合法性、问责制、算法偏见、算法歧视等问题。此外,从制度层面来看,算法嵌入对传统行政的基本原则产生冲击,形成制度适应性风险,以及由此引发的政府权威减弱、数字鸿沟等问题。基于此,如何应对这些风险也成为算法行政研究的重要议题。在目标使命层面,算法不仅是政府的治理工具,也需要与组织深度融合,共同推进公共价值创造;
在实践层面,政府既需要从技术上依托算法优化来实现风险规制的程序化牵制,也需要从制度上建立健全法律法规体系,明确监管主体权责,建立多元协同机制,共同应对算法行政的风险。

整体而言,算法行政的相关研究尚处于探索起步阶段。早期研究多侧重于理论分析与规范性探讨,近两年实证研究逐渐丰富,研究方法上多采用案例研究、调查实验、现场实验等,研究场景多集中在警务、司法等领域,未来需要丰富多元方法的使用和场景选择,为相关议题的深入探讨提供新的工具和手段,并探索在中国制度情境下的算法行政模式。此外,一些重要议题需要进一步被关注和讨论。例如,在概念界定方面,需要进一步拓展不同情境下的算法行政研究,科学界定其边界、维度及内涵特征;
在运行机理方面,需要关注并比较分析多样化算法行政组织形态的具体运作逻辑及影响因素;
在公共价值方面,算法透明度关乎到政府透明度、公众信任、公众参与等重要价值创造(Grimmelikhuijsen,2023),需要优化算法透明的测量,结合实证研究探讨算法系统的透明公开及其影响和价值;
在政企关系方面,需要关注技术企业参与公共部门人工智能算法项目运营与管理的过程,结合案例分析政企互动、自动化决策结果的责任划分等;
在公众参与方面,公众不仅是算法自动化决策中的被动接受者,也是算法治理过程中的重要参与者,需要探讨其在公共部门算法设计与运作过程中的角色与作用发挥。此外,未来研究需要引入法学、政治学、图书情报学、计算机等学科的相关理论与视角,更好地探讨算法行政的现状与不足,丰富并推动算法行政研究向纵深发展。

猜你喜欢 公共部门决策行政 行政学人行政论坛(2022年5期)2022-10-25公共部门人力资源管理激励机制研究商品与质量(2021年43期)2022-01-18为可持续决策提供依据纺织科学研究(2021年9期)2021-10-14决策为什么失误了中学生数理化·七年级数学人教版(2019年6期)2019-06-25行政调解的实践与探索人民调解(2019年5期)2019-03-17公共部门人力资源激励机制的构建探析经济技术协作信息(2018年22期)2019-01-19《国际公共部门会计准则前言》发布商业会计(2016年11期)2016-10-20对公共部门预算编制中讨价还价行为的解释行政事业资产与财务(2015年23期)2015-10-26行政为先 GMC SAVANA车迷(2015年12期)2015-08-23加快行政审批体制改革全球化(2015年2期)2015-02-28

推荐访问:述评 算法 展望

猜你喜欢