查看原文
其他

张恩典 | 算法透明度的理论反思与制度建构

张恩典 华中科技大学学报社会科学版
2024-09-23

点击蓝字关注我们



算法透明度的理论反思与制度建构


张恩典


一、问题的提出

随着机器学习算法技术的迭代发展,算法技术已经深度介入过去完全由人类掌控和完成的诸种公私事务之中。在算法技术浪潮席卷之下,人类已然置身于由底层算法技术精心构筑的数字生活世界之中。在这一社会形态之下,算法技术“将与市场和国家一起决定我们获得重要社会物品的途径”。这意味着,算法将超越传统的技术范畴,成为法律制度之外一种重要的分配正义机制,由此也引发社会公众对算法透明度问题的强烈担忧。为回应社会公众的担忧,国家互联网信息办公室等四部门于2022年1月出台了《互联网信息服务算法推荐管理规定》(简称《算法推荐管理规定》),其中第4条、第12条、第16条和第17条对互联网推荐服务者的算法透明义务作出规定,这是我国算法透明制度的探索性实践,在实现互联网信息服务算法透明方面发挥重要作用。

算法透明度并非一个纯粹的技术问题,而是一项技术、管理和法律相互交织的重要社会议题。当前,实现何种程度的算法透明以及如何实现算法透明成为包括法律学者在内的众多学科研究者和实务工作者关注的重大理论和实践命题。总体上,目前的研究主要从算法透明度的概念属性、学理争议、功能定位、实现机制等方面展开:在概念属性的研究方面,有学者阐释了算法透明度的概念,并揭示其与算法解释之间的区别与关系,认为算法可解释性是算法模型的客观属性,算法透明度则是算法运行结果与主观预期的关系;在学理争议方面,有学者对算法透明度原则进行了批判性研究,认为算法透明度原则是一种事前规制方式,具有先天缺陷,既不可行,亦无必要;在功能定位研究方面,有学者认为算法透明是实现算法问责的重要机制,并具有多重维度;还有学者认为算法透明虽可以实现算法治理,但其作用不宜过分夸大;在实现机制研究方面,有学者对实现算法透明的算法解释权、算法影响评估和算法审计等具体机制展开研究。

客观而言,既有研究对于完善我国算法透明制度、促进算法问责无疑具有重要意义。然而,上述研究亦存在理论建构不足和实践指引不足的双重缺失。一方面,目前的研究更多聚焦于制度层面,试图通过对个别化算法透明制度的研究来建构算法透明制度,并为算法透明度实践提供指引。这对于建立健全我国算法透明制度颇有助益。然而,目前这种碎片化的研究,对繁复细微的算法透明制度实践背后潜藏的理论意蕴缺乏深入的挖掘,容易迷失在微观制度研究中,忽视了制度背后的理论意蕴。另一方面,算法透明度实践离不开丰富的算法透明“工具箱”,但更端赖于实践中的合理运用,以实现算法透明合规。然而,目前的研究对于如何合理设计、组合各种算法透明制度机制缺乏足够关注,导致算法透明度实践进退失据,甚至滋长了全盘否定算法透明度价值的错误认知。鉴于此,本文在阐释和重申算法透明度的固有价值和工具性价值基础上,将算法透明制度实践置于透明度理论脉络中加以审视,对算法透明制度实践加以细致考察并予以理论凝练和检视反思,进而倡导迈向基于关系的算法透明度理论,并以该理论为指引探索算法透明度机制的具体建构方案。

二、算法透明度的价值谱系

算法透明度在算法治理制度体系中占据重要地位,这得益于其所蕴含的多维价值。从类型学上,可以将价值分为固有价值与工具性价值。该分类有助于更加全面地理解算法透明度所潜藏的价值意蕴。鉴于目前的算法治理实践中存在着仅将算法透明度定位为一种工具性价值,甚至全然否认算法透明度价值的错误倾向,本文从固有价值与工具性价值维度来解读算法透明度的价值谱系,以重申算法透明度在算法治理中的功能。

(一)算法透明度的固有价值

固有价值通常被认为是“某种特殊道德类型的非派生性价值”,据此,算法透明度的固有价值意指算法透明本身内在所蕴藏的价值,其并不是派生的。“一旦放弃了透明过程,内生价值将随之一并消散,保障人的自由和尊严的功能也将大大减弱,所以内生价值因其固有性和直接性而不可替代”。算法透明度的内在价值可以从人的尊严自主和算法正义两方面来理解。从人的尊严维度上,算法透明度作为一种内在价值,彰显了算法时代背景下对人的尊严和个人自主的捍卫。“算法决策剥夺了受影响者个体‘表达意见’和反驳决策的权利,人作为道德主体(即有自己观点且能够理性行事),理应受到相应认可和对待,且有权享有尊严和尊重,这是生而为人的基本权利,而算法决策从根本上破坏了这种权利”。算法透明度是促进个人人格发展、实现理性自主的重要保障,面对缺乏基本透明度的算法决策,个人极有可能在隐秘算法的操纵下丧失其自主选择的能力,也将失去捍卫个人尊严的力量,并终将沦为数字时代的弱者和流众,甚至沦为“赤裸生命”。透过算法透明度,个人得以洞悉算法决策背后的运行逻辑,进而在一定程度上祛除机器学习算法对人的主体性的遮蔽,增强个人的自主选择能力。

从算法正义维度上,算法透明度是算法正义的内在要求。有学者揭示了算法正义与现代法治的关系,认为“算法正义要求算法实践在法治之下秉持平等、尊严与自由价值”。马长山在论及算法治理的正义原则时便将公平透明原则作为三大算法正义原则之一。算法透明度反映出算法社会中人类普遍且质朴的正义观念,构成了算法正义的重要面相,体现出算法时代人类对于正义的不懈追求。美国计算机协会下属美国公共政策委员会于2017年发布《算法透明度和问责制声明》,其中确立了算法透明度和问责制的七大原则。国家网信办等四部门出台的《算法推荐管理规定》第4条明确规定,提供算法推荐服务应当遵循公开透明度原则。可见,算法透明度原则已经成为算法治理实践的基本原则和价值追求,这意味着,算法透明度是算法正义的题中之义,并非只具有工具性价值,其本身是算法治理的目的,而非仅仅只作为算法治理的工具或手段。

(二)算法透明度的工具性价值

工具性价值意指一种非内在的派生价值,意谓某事物的价值并非源于其本身而取决于其外在目的之实现。算法透明度的工具性价值强调算法透明是实现特定价值的工具和手段。

首先,适当的算法透明度有助于减少算法错误和歧视。算法决策实践表明,机器学习算法并非像其开发者和应用者所宣称的那般客观中立,而是充斥着错误和歧视,并掩盖在算法黑箱之中,难以为外界所察觉。算法开发者既可以借由对训练数据和算法模型参数权重的设计来对受保护群体进行直接歧视,也可以因为对历史数据的拣选而延续固化业已存在的结构性间接歧视。透明度意味着一种持续的观察和监控,适当的算法透明机制则犹如一幅透视算法黑箱的透镜,透过它人们得以对机器学习算法进行持续的观察、检查和监控,以发现潜藏在算法黑箱中的错误和偏见,进而采取有效措施去减少机器学习算法的错误和歧视。

其次,适当的算法透明度有助于强化算法决策的问责制。问责制是现代公共行政的重要价值追求,其可以从两个维度来加以理解:一是对决策过程和结果的解释说明,二是对决策后果的归责。然而,在算法决策场景中,机器学习算法模型的复杂性和算法决策的自动性特征却不同程度地导致问责制困境。一方面,算法决策面临解释难题。机器学习算法模型具有高度的复杂性,加之算法开发者以商业秘密为由拒绝披露算法,使得技术专家难以对机器学习算法输出的决策结果作出准确的解释,更别说对算法技术知之甚少的普通民众。而在这种由机器学习算法模型编造的卡夫卡环境中,由于人们不了解某个决定的形成过程,就难以提出有力的反对理由。例如,在平台经济中,“人力投入其实对数字平台的运作必不可少,但是就连知识渊博的用户可能都会以为算法决策是‘中立的’,并且因为平台运营的不透明和复杂性,用户并不敢质疑平台的操作行为和过程”。另一方面,算法决策的复杂性和自动化特征引发事后归责的难题。算法决策的复杂性和自动性导致人们在将决策后果归责于某个特定主体的过程中面临归责的难题。这一难题根源于人类对机器学习算法决策过程的参与程度和控制力的弱化,而科技巨头主导算法自动化系统的开发和部署则进一步加剧了算法问责困境。适恰的算法透明度能够增强算法决策的问责制,一方面,通过事前披露算法模型的运行机理和有关权重参数等信息,有助于增强外界对算法模型内部运行过程的了解;另一方面,通过为那些受特定算法决策影响的个体提供事后的个别化解释说明,能够增强个人对其个人权益产生深刻影响的算法决策的理解,为其挑战那些算法决策结果提供可能性;再则,算法透明度对机器学习算法模型的开发和运行建立起事前、事中和事后的动态、周期性的评估和审计机制,能够进一步增强对算法运行过程和结果的控制。换言之,算法透明机制实则是在这些具有高度复杂性和自动性的机器学习算法决策上建立一套制度化的自我监控和外部监督机制,进而有助于强化算法决策问责。

再次,适当的算法透明度有助于增强民众对算法决策的信任。在现代社会,信息透明被认为是信任大厦得以牢固建立的基础。在算法社会背景下,算法信任是构成算法社会发展的基石和关键性媒介。与此同时,“算法厌恶”情绪悄然扩散开来。究其原因,固然有算法系统错误、歧视以及算法决策带来的控制力弱化等因素,但算法模型缺乏基本透明度是引发算法厌恶的重要原因。合理的算法透明机制为利益相关者提供了可访问、可解释、可评估的算法理解路径,透过可信算法的开发和部署,重建算法信任。

综上所述,算法透明度既蕴含着丰富的固有价值,其本身便是算法治理的重要目标,并具有重要的工具性价值,而算法透明度价值的实现,端赖于合理的算法透明制度设计。

三、基于信息的算法透明度实践之理论反思

目前的算法透明度实践所采行的是一种基于信息的算法透明度模式。该模式将算法透明度实践视为一个信息披露和信息解释的过程,试图通过充分的信息披露来打开算法黑箱,以达致提高算法透明度之目的。

(一)基于信息的算法透明度模式之理论渊源与制度构造

1.理论渊源:透明度即信息(transparency as information)

诚如韩炳哲所言:“当代公共话语中没有哪个词比透明更高高在上,地位超然。人们对它孜孜以求,这首先与信息自由息息相关。对‘透明’无所不在的需求愈演愈烈,甚至让它登上神坛,一统天下。”在透明度的诸多理论中,透明度即信息理论占据主导地位。该理论认为,导致不透明的原因在于信息供给不足以及信息不对称,而实现透明则需要通过信息披露以弥合主体间的信息鸿沟。基于信息的透明度能够实现可见性,提供“清晰”的“洞察力”,以便我们“看穿”组织或政府机构。据此,实现透明的过程被视作一个持续的公开和披露信息的过程。

透明度即信息理论对政府规制实践产生了深远影响。根据这一理论,政府对市场施加规制的原因在于,产品经营者与消费者之间存在着信息不对称,而对产品经营者苛以披露义务,要求其向消费者披露信息,以克服信息不对称造成的市场失灵。在政府治理中,政府透明度亦被视为是消解作为委托人的国民与作为代理人的政府之间存在的信息不对称的基本方式,“阳光是最好的防腐剂”是该理论的鲜明佐证。

受透明度即信息理论学说之影响,基于信息的算法透明度理论也被广泛接受。这一理论认为,算法透明的本质即在于通过信息的主动公开和披露来消解横亘于普通民众与算法模型开发者之间的“信息鸿沟”,使得普通民众得以打开算法黑箱,观察和洞悉黑箱的运行。“观察产生洞察力,从而产生治理和让系统负责的知识。观察则被认为是一种伦理行为,观察者接触更多关于系统的信息,就能够更好地判断一个系统是否按照预期运行,亦即需要作出哪些改变”。基于信息的算法透明度理论倡导者坚信,算法透明实则是一个信息公开和流动的过程,借由算法模型和算法决策过程的最大限度公开以及算法决策的解释,能够获得算法治理和问责所需的信息和知识。

2.制度设计:算法公开与算法解释的双重构造

基于信息的算法透明度理论对算法透明具体制度实践产生了深刻影响,并衍生出算法公开和算法解释两大颇具代表性的算法透明制度。所谓算法公开,即向外界披露算法代码、算法模型的架构和运行原理。算法公开“假定算法是一个黑箱,只要打开这个黑箱,算法就会暴露在阳光下,为人们所知晓”。算法解释则是算法开发者和应用者向受算法决策影响的主体解释算法决策运行的逻辑。

欧盟《一般数据保护条例》第5条第1(a)款规定:“个人数据应以合法、公正、透明的方式处理”。该条确立个人数据处理的透明度原则。在此基础上,《一般数据保护条例》序言第39条、第58条规定个人数据处理应当符合透明度原则,透明度原则要求“任何向公众或数据主体发布的信息是简洁、容易获取和易于理解的,要求使用清晰朴实的语言并采用可视化的方法”。就透明类型而言,这是典型的事前透明。此外,《一般数据保护条例》还确立了事后透明机制。《一般数据保护条例》序言第71条规定,数据主体有权获得人为干预的权利,以表达数据主体的观点,在评估后获得决定解释权并质疑该决定。同时,《一般数据保护条例》第13条第2(f)款规定:“控制者在获取个人数据时,为确保处理过程的公正和透明之必要,应当向数据主体提供‘包括数据画像及有关逻辑程序和有意义的信息’。”以上条款被学者认为是确立了算法解释权制度。

在算法透明制度规定方面,我国深受该理论模式的影响。具体而言,《个人信息保护法》第7条规定:“处理个人信息应当遵循公开、透明原则,公开个人信息处理规则,明示处理的目的、方式和范围”,该条规定将公开透明确立为包括算法自动化决策等在内的个人信息处理活动的基本原则。同时,该法第24条规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明”。这实则确立了“中国版”的算法解释权制度。在此基础上,《算法推荐管理规定》则针对推荐算法的公开和算法解释作出了更为细致的规定。其中,第12条规定:“鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性。”第16条规定:“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”从透明类型上观之,上述两条规定实则规定了一种事前的算法公开制度。而《算法推荐管理规定》第17条第3款规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”该条规定实则是一种事后的针对特定决策的算法解释权。可见,事前的算法公开和事后的算法解释共同构筑起事前和事后算法透明制度。

上述规定类似于美国学者卡里·科格里安塞等所言的“鱼缸型透明”与“析理型透明”。前者通过事前主动公开披露算法的原理和运行机制,乃至算法模型、代码来实现充分的透明,旨在解决“是什么”的问题;后者则借由针对特定决策进行解释说明来实现算法决策的透明,旨在解决“为什么”的问题。两者旨在通过算法原理的公开或算法决策的解释说明,尽可能地为用户提供关于算法模型和算法决策的信息,帮助用户洞悉算法决策的形成过程和逻辑。

(二)基于信息的算法透明度模式之理论检视

客观而言,基于信息的透明度模式在促进算法透明方面发挥着重要作用,并深刻影响着欧盟和我国的算法透明度制度实践,同时该模式仍存在以下缺陷。

1.忽视了算法决策的复杂性和动态性特征

算法决策呈现出高度复杂性和动态性。一方面,算法决策具有高度复杂性。这一复杂性多源于算法决策背后的复杂算法模型、海量数据及繁复的应用场景。另一方面,算法决策呈现出高度动态性。算法决策具有高度的动态性潜能,能够从可用的新数据中不断学习,故算法系统处于持续变动中,仅具暂时稳定性。然而,基于信息的透明度理论将透明度看成一个静态的信息披露行为,认为信息早已存在,并能够为人们所使用,相关组织和机构所需要做的是尽可能地向人们披露。由此可见,该理论更多地将信息视作一个价值无涉的中性事实,聚焦于信息的可获取性,对于信息披露背后所涉及的选择机制、过程和政治等因素则不甚关心。在这种透明度观念支配之下,该模式将算法透明度简单视为静态的算法模型披露或者算法决策结果解释的行为,而忽视了算法决策背后所涉及的机器学习等算法技术的复杂性、动态性特征以及应用场景的繁复性,导致算法透明度实践缺乏足够的回应性。

2.难以回应利益相关者的多元化透明需求

算法透明度的要求因信息接受者的不同而呈现多样化。算法决策背后涉及算法系统的开发者、采购应用者、用户、普通公众、第三方技术专家和监管者等众多主体,他们对于算法透明度有着差异化需求。对于公众而言,算法透明度以算法的一般性功能为主,对于受决策直接影响的个体而言,其中关于个人决策的特定信息将是其主要关注点。该模式强调最大限度地向社会或用户披露算法原理乃至代码,或解释特定的算法决策,主要聚焦于普通公众和用户的透明度需求,对其他利益相关者的算法透明度需求则缺乏足够关切。

客观而言,基于信息的算法透明度模式对于算法透明的理解是偏颇的。诚如学者所言:“透明度常常与仅仅披露信息相混淆。我们认为,两者之间的一个重要区别在于,透明度实践具有需求侧的层面,需要充分考虑相对方对于算法透明度的现实需求。这意味着传递的信息不仅要可观察到,而且要与接收方相关、值得信任、足够精确,归根结底传递信息对接收方具有价值”。在具体实践中,该模式往往将算法透明度看作一个“全有或全无”的状态。其实,算法透明度具有多重维度,其更多是一个程度的问题,应当被视为一个面向不同利益相关者的关系性过程,而不能简单地将算法透明度视作信息的披露或传递,而应基于利益相关者的差异化透明度需求,有针对性地开展算法透明度实践。福斯托·朱奇利亚主张多样化的算法透明度实践,提出了五个层次的算法透明度机制,依次分别为用户感知、观察者审计、开发者披露、用户/开发者映射及完全透明。当前我国算法透明度实践多聚焦于用户和普通公众层面,未充分考虑其他利益相关者的透明度需求,在算法透明度需求的回应性方面亟待提升。

3.忽视个体对算法决策的理解能力

基于信息的算法透明度模式而认识到横亘于算法开发者与个体间的巨大鸿沟,并试图透过尽力地对外披露算法模型原理,解释算法决策,以达到弥合鸿沟之目标。该模式将实现算法“完全透明”作为其理想追求。然而,所谓的完全透明既不可能,也不可欲。“算法完全透明(披露所有信息)在技术上轻而易举,但在政治上和实践上却不可行,而且可能毫无裨益”,而且,该制度实践预设的前提是只要尽可能地披露算法信息,便能使其理解算法模型和算法决策。然而,该观点忽视了普通用户对机器学习算法的理解力,并有可能加剧普通民众的责任。由于基于信息的算法透明度模式预设了在算法决策中个人是高度理性的,并相信将信息披露给个体,其便能够作出知情决策。这实则是通过算法透明的方式赋予个体更多的算法治理责任,并为算法开发者以已“公开算法”“披露算法信息”为由推诿责任提供了便利。学者卡尔波卡斯便对那种片面追求完全透明的做法提出了质疑,他认为,“如果更高的透明度仅仅是将责任转移到在权力、时间和知识方面的资源已经有限且无法进一步延伸的个人身上时,那么纯粹的透明度可能会让事情变得更糟,而不是更好”。

算法透明度与信息披露强度有较大关联,但并不意味着信息披露越多透明效果便越佳。从主体角度观之,基于信息的算法透明度模式认为,个体的特定认知和实践技能的运用仅源于个人自由意志,是内在于个人的一种能力。实际上,个体的认知和实践技能是在主体交往中逐渐习得和运用的,个体对于信息的理解具有高度的情境主义特征,并受到个人“前见”的深刻影响,呈现出高度差异化。从客体角度观之,由于机器学习算法技术本身具有高度的复杂性,普通公众和用户囿于自身理解能力,即使算法开发者将代码向外界完全披露,也难以真正为普通公众和用户所理解,反而可能陷入“信息冗余”状态中,偏离算法透明目标。

客观而言,该模式在理论预设上将透明度实践简化为静止的算法信息披露,在理论预设上存在偏狭之处,而以此理论为指导的算法透明制度实践忽视了算法决策的动态性和复杂性、利益相关者的透明度需求多元化,以及个体对于算法模型和决策信息披露的理解力的局限性,导致有效性和回应性不足,并给人一种“无意义透明”的观感。

四、算法透明度之理论更新:迈向基于关系的算法透明度模式

鉴于传统算法透明度实践所面临的困境,有必要对其加以理论更新,倡导算法透明度的“关系”转向,即由传统静态的基于信息的算法透明度模式迈向动态的基于关系的算法透明度模式,以提高其解释力和指导价值。

(一)基于关系的算法透明度模式之理论意涵

1.将算法透明度定位为“关系”概念

不同于传统理论将透明度简化为纯粹的信息传递,基于关系的透明度理论更多地从关系维度来理解透明。该理论认为,那种将透明度简化为单纯信息披露的化约主义观点是片面的,主张将透明度看作是指称“关系”的概念,并将其置于具体的社会、文化情境中加以理解,更多关注信息披露背后的社会、价值因素。诚如学者所言:“如果仅仅将透明度理解为信息从一个主体向另一个主体的传递,而不注意与这种传递相关的意义、价值和社会功能,就不能理解透明度的意义。”基于关系的算法透明度模式的倡导者批判那种将透明度简单视为信息披露和传递的观点,转而强调算法透明度实践应充分考虑算法决策所涉及的复杂的技术条件、组织结构和具体应用场景等诸多影响因素,而不再以简单的系统“透明”和“不透明”的二分法去理解和界分算法透明度。该模式让我们将目光更多投向那些被传统模式所遮蔽和忽略的、蕴含于算法透明度实践的社会性面向,将算法透明度实践视为一个在多元主体间展开的社会实践活动;同时,该模式还引导我们关注算法治理转型背后潜藏的诸如算法歧视等不公正的社会关系,并通过多样化的算法透明机制改变这一关系。

2.将算法透明度视为动态交流的互动过程

基于关系的透明度模式将透明度实践视为动态的、双向的交流过程。诚如学者所言,透明度是关系性的,涉及不同行动者之间的信息交换,这意味着,透明度并非是个体维度的信息传递者公开信息的行为,而是发生在信息传递者与接收者之间的互动交流过程。具体到算法透明度,该理论将算法透明度实践视为动态的、多主体之间的信息交流互动过程,算法透明度并不意味着披露的算法模型信息越多越好,而是要重点关注算法决策中算法采购者、用户、监管者、第三方机构等多元主体的透明度需求。尼古拉斯·苏佐等学者指出,有意义的算法透明度应被理解为是对独立利益相关者的问责沟通过程的组成部分。这显然是从关系维度理解算法透明度,将其看作一个多元主体沟通交流的过程。该模式既有效回应了算法决策的动态性特征,也充分诠释了算法透明度实践的关系性特质。

3.倡导“透明度设计”的理念

最佳透明度是与各个体或群体所期望和实现的透明度相匹配的水平。不同于传统透明度理论的“全有或全无”的独断论思维,基于关系的算法透明度模式强调算法透明度更多是一个程度的问题,并倡导一种透明度设计理念。“透明度设计”源于“隐私设计”理念,透明度设计理念主张根据算法透明实践所欲实现之目标、所针对之对象、所面对之情境、所处之具体阶段等因素对算法透明度机制加以合理设计,以满足不同主体、不同情境算法透明度要求,实现多重维度的算法透明度目标。

(二)基于关系的算法透明度模式之价值意蕴

基于关系的算法透明度模式倡导从关系的视角来理解透明度,让我们得以重新发现那些被传统模式所遮蔽的社会因素,能够有效弥补传统模式的缺陷。

1.契合算法决策的复杂性和动态性特征

“与其他技术一样,算法深嵌于现有的社会、政治和经济环境之中”。算法决策具有高度的复杂性和动态性特征,传统模式将透明度简化为信息传递和披露,难以适应算法决策的上述特征,而基于关系的算法透明度理论则更好地契合了算法决策场景。

一方面,该模式契合了算法决策的复杂性特征,摒弃了传统模式的化约主义思维,从关系视角来理解算法透明度,主张在尊重透明对象之需求的基础上,充分考虑算法模型信息公开和算法解释等透明度实践在技术上的可能性、限度及其潜在的负面影响。另一方面,该模式契合了算法决策的动态性特征。算法决策可以分为算法系统开发设计、采购部署、运行、结果输出等阶段;同时,算法决策还会根据训练数据集、算法模型参数的变化而变化,呈现高度动态性特征。这意味着,在算法透明度实践中,那种认为可以一劳永逸地实现算法透明的做法是不可取的,而应基于算法决策的多阶构造,并结合算法决策场景和利益相关者的透明度需求持续性地履行透明度义务。该模式从动态关系的角度来理解算法透明实践,充分认识算法透明度的复杂动态性特征,并主张根据算法决策阶段有针对性地设计算法透明度,更契合算法决策的动态性特征。海克·菲尔兹曼等学者基于机器学习算法决策的多阶性特征,总结出算法系统设计、数据处理和分析应遵守的透明度九大原则,颇具启发意义。

2.有效回应利益相关者多元化的算法透明度需求

诚如学者所言:“人工智能系统的开发人员需要公正地对待透明交流的关系性质。因此,责任不仅在于提供信息,还在于考虑可能接收和解释信息的受众”。在机器学习算法决策中,众多利益相关者在透明度方面具有多元化需求。作为一项社会实践活动,算法透明度实践不能脱离算法决策利益相关方的多元需求。算法透明度只能通过关键的利益相关方才有可能实现。基于关系的透明度模式从关系视角来理解透明度实践,强调将其视为一个社会实践过程,并主张算法透明度实践的“需求”驱动。该模式面向包括算法采购者、用户、监管者/第三方机构等众多利益相关者,充分尊重和考虑各利益相关者在算法透明度方面的差异化需求,精心设计灵活而有针对性的算法透明度实现机制,才能够有效回应利益相关者的多元化透明度需求,从而使算法透明度更具实践合理性。

3.充分考虑个体的算法决策认知局限性

传统透明度模式的悖论在于,其旨在借由算法信息披露或算法解释来提升公众对于算法决策的理解,并捍卫算法决策中的个人自主性,然而,无论是算法信息披露还是算法解释,都在很大程度上依赖于普通公众对算法决策的理解能力。信息披露方式总是受到各种社会因素和关系假设的制约,这些假设涉及对个体在技能方面的正当期待。同时,信息披露以技能和能力为前提,在大多数情况下这些技能和能力只能在社会实践和交往中习得和锻炼。不同于传统模式从理性主体的角度看待个体,该模式正视个体的认知能力受历史、社会文化环境和知识结构等多重因素影响,以及其在算法决策的理解力方面的现实局限性,并主张在算法透明度具体机制设计中充分考虑普通公众的认知局限性及其背后的各种社会因素。

五、基于关系的算法透明制度建构

基于关系的算法透明度理论的价值在于,扬弃传统的透明即信息的线性观念,将算法透明度作为社会实践加以理解,从广泛的文化、社会和经济背景下来看待算法透明度,并揭示出算法透明度的关系属性,直面算法透明度实践中诸如“向谁透明”“为何透明”“如何透明”等亟待解决的问题。总体上,宜以关系透明度理论为指引,遵循“透明度设计”理念,充分考虑算法透明度实践的对象、目标、内容、方式和时机等要素,并对诸要素加以合理组合、构造,从算法透明度基础制度和具体运行机制两个方面建构基于关系的算法透明制度。一方面,将算法透明度界分为个体透明与系统透明,并健全完善以算法解释权为中心和以算法审计为中心的基础性制度,以实现双重维度的算法透明;另一方面,立足算法透明度的关系属性,从双阶视角来观察和审视算法透明度实践,并建构具有实践理性的算法透明度具体运行机制,以增强算法透明制度的回应性和有效性。

(一)健全实现双重算法透明度的核心制度

从类型学上,基于算法透明的对象、目标和内容等因素的差异,可以将算法透明度界分为个体维度的算法透明度与系统维度的算法透明度,亦即个体透明与系统透明。前者旨在实现算法决策对受算法决策影响的个体的透明,其指向的是算法决策之于个体的可解释性,进而为个体挑战和质疑算法决策、捍卫个人的尊严和自主提供可能;后者旨在实现算法系统对监管机构、第三方算法审查机构及其技术专家的透明,其指向的是算法系统对于上述机构及其技术专家的可审查性,以减少算法决策的错误和偏见。

1.以算法解释权制度为中心,实现个体透明

面向受算法决策影响的个体所实施的个体透明是算法透明度的重要组成部分,而算法解释权制度通过向受算法影响的个体披露算法运行原理和提供算法决策的解释说明,在促进个体透明方面发挥着关键性作用。我国法律对算法解释权作出了相关规定,但具体规则和适用仍有待细化明确。在具体实践中,围绕算法解释的权利内容、具体标准、方法和时机等具体制度规则,目前仍存在一般主张与限定主张、系统解释与个案解释、人工解释与机器解释、事前解释与事后解释等一系列争论。

算法解释权制度的具体构造应以彰显和捍卫人的尊严为根本宗旨,以促进个体维度的算法透明为制度目标,并结合算法决策应用场景来加以合理设计和选择,以充分发挥算法解释权在数字社会中多元主体间的沟通桥梁功能,维系和重塑算法信任。具体而言,在解释标准上,宜坚持系统解释和个案解释相结合;在解释时机上,坚持事前解释与事后解释并重。在具体的算法解释实践中,以算法模型为中心的系统解释通常是一种事前解释,即在算法决策作出之前进行;以特定算法决策为中心的个案解释则通常是一种事后解释,即在特定决策做出之后进行。事前的系统解释主要围绕系统功能展开解释,解释的具体内容包括自动决策系统的逻辑、意义、预期后果和一般功能,如系统的需求规范、决策树、预定义模型、标准和分类结构。事后的个案解释主要围绕着特定算法决策展开,具体包括特定自动化决策的基本原理、理由和个体情况,例如,特征的权重、机器定义的特定案例决策规则、参考或画像群体的信息。算法解释并非一成不变,在具体算法解释实践中仍需结合算法决策应用领域、场景、风险大小和个体权益的影响程度等因素有针对性地予以展开。通常而言,在司法裁判、政府公共治理等公共领域中算法决策对个体权益影响更高,风险更大,算法决策者的解释义务更重,解释标准亦更高。

2.以算法审计为中心,实现系统透明

算法透明度还涉及对决策过程的外部审查,例如允许第三方检查计算机代码或其执行的决策标准,其可以归类为系统透明。系统透明旨在通过算法系统模型和训练数据集向监管机构和第三方机构公开透明,以减少和纠正算法系统的偏见和错误。算法审计是促进算法透明的重要工具,在弥合算法透明与算法商业秘密保护之间的张力、实现算法透明方面发挥着重要作用。算法审计是指“对软件产品和过程与适用的规则、标准、准则、计划、规格和程序相符合的独立评估”。在算法审计制度规定方面,我国《个人信息保护法》第54条、第64条分别规定了个人信息处理者的定期合规审查义务和个人信息保护强制合规义务,《算法推荐管理规定》第7条、第8条和第24条则对算法审计制度作出进一步规定。然而,当前算法审计在制度构造和具体实践操作方面仍处于探索阶段。

算法审计制度包括审计主体、审计对象、审计方法和审计报告公开等具体制度要素。从审计主体上,可以界分为内部审计和外部审计。其中,内部审计是一种由开发和应用算法的企业和机构自行开展的“用以检查人工智能系统创建和部署所涉及的工程过程是否符合公开的道德期望和标准的机制”;外部审计则旨在从算法系统外部识别风险,通常在算法研发部署之后展开。外部审计包括监管机构审计以及第三方审计。审计对象包括数据的审计和算法模型的审计两个方面。在审计方法上,基于算法模型的访问程度差异,可供选择的审计方法包括五种:代码审计、抓取审计、马甲审计、众包审计和非侵入式审计。其中,代码审计是指对计算机代码的审计,研究人员通过对代码的审计可以仔细检查算法的逻辑基础。代码审计需要以代码公开为前提,然而现实中,企业多以算法代码为商业秘密为由而拒绝公开,因此在算法审计实践中,代码审计方法通常运用于算法内部审计之中。抓取审计,是指审计人员通过访问平台反复更改输入信息,并对输出结果进行观察和分析。该审计方法的效果取决于平台所提供的访问权限。众包审计,也称协作审计,是指通过招募的“测试人员”即用户对算法输出开展观察、分析的审计方法,其优点是法律风险小,缺点为成本较高。上述审计方法各具特征,审计主体可以有针对性地选择适当的审计方法开展算法审计活动,以实现算法系统的透明。

(二)探索实现算法双阶透明度的具体机制

基于关系的算法透明度理论并非单纯从技术角度来理解算法透明,而是将算法透明度看作人类对算法技术的治理实践,其中将包括算法技术、构造算法的人类决策以及围绕算法所建构的治理体系。据此,算法透明度将界分为一阶透明度与二阶透明度。其中,一阶透明度指向算法技术以及关于算法构造的人类决策;二阶透明度则与算法协同治理理念一脉相承,伴随着私营机构承担算法治理责任,二阶透明度是保障私营机构算法治理实践的透明性和可责性的重要机制,是对“观察者的观察”,其指向算法治理体系的透明性和可责性。为增强算法透明度制度的有效性,宜基于算法的双阶透明度界分,立足于个体透明与系统透明双重维度,并结合算法透明度的工具、对象、目标、内容、时机等诸要素,构建以算法技术透明为中心和以算法治理体系透明为中心的双阶算法透明机制,实现算法透明度机制的优化配置。

1.构建以算法技术透明为中心的一阶透明度机制

算法一阶透明度旨在实现算法技术之于相关多元主体的透明,亦即通过透明机制让特定主体能够了解算法决策系统。从类型上,算法一阶透明度包括个体与系统两个维度的透明。其中,个体维度的算法一阶透明度机制包括如下要素:在透明度工具上,包括个人数据披露、算法解释等工具;在透明度对象上,针对的是受算法决策影响的个体;在透明度目标上,旨在实现对涉及个人数据和特定算法决策的知悉和理解,以尊重个人尊严;在透明度内容上,包括涉及个人数据的披露和算法解释(包括以模型为中心的算法解释和以主体为中心的算法解释);在透明度时机上,包括事前与事后以及定期披露等。上述诸因素相结合,构造个体维度的算法一阶透明度之具体机制(表1)。

系统维度的一阶透明度机制的具体要素如下:在透明度对象上,包括独立审计人员、外部技术专家、公司内部职员、监管人员、利益相关者以及普通公众;在透明度目标上,旨在减少算法错误和歧视,提高算法系统正当性;在透明度工具上,包括第三方算法审计、算法影响评估、记录留存等制度工具;在透明度内容上,包括源代码、数据集等;在透明度时机上,包括算法系统设计、运行和更新等时间节点。在上述诸要素有机结合基础上,构造系统维度的算法一阶透明度的具体机制(表2)。

2.构建以算法治理体系透明为中心的二阶透明度机制

算法二阶透明度实则是社会系统论“二阶观察”在算法透明度实践中的具体呈现,即在算法协同治理模式下,针对平台企业等私营机构建立的内部算法合规治理体系和制度实践所开展的合规监督。其具有代表性的制度实践便是我国《个人信息保护法》第64条规定的合规审计制度。二阶透明度旨在通过对私营机构开展算法治理体系和实践的持续监督,确保其不被俘获,这与一阶透明度旨在实现算法系统的可解释性和可审计性是不同的,虽然两者在实践中通常共享一个算法透明度“工具箱”,也包括透明度的对象、目标、工具、内容、时机及方式等具体要素,但在目标设定上却大异其趣。

算法二阶透明度机制建立在上述具体要素基础之上。具体而言,在透明度对象上,包括受影响个体、外部专家、受影响利益相关者以及公众代表等;在透明度工具上,包括算法解释、算法影响评估、算法审计等;在透明度内容上,主要包括提供监督公司政策和特定算法解释等信息;在透明度时机上,包括算法系统设计、算法运行和决定作出等时间节点。在上述诸要素有机结合的基础上,构造算法二阶透明度的具体机制(表3)。算法二阶透明度将特定主体的治理实践也囊括其中,既呈现算法透明度实践的多重维度和多阶构造,也向人们展现了算法透明治理实践的丰富性。更为重要的是,以私人机构的算法治理体系和实践为观察对象的算法二阶透明度机制,为我们深刻理解算法治理实践背后的逻辑提供了一个具有高度反思性的方法论透镜。

六、结语

兰登·温纳在谈到技术社会的复杂性导致人的自主性丧失时指出:“技术社会的成员们实际上对维持他们生存的根本结构和程序了解得越来越少。世界的真实情况与人们所具有的关于这个世界的图像之间的差距变得比以往更大了。”数字技术浪潮席卷之下,人类正在迈向由算法技术构筑的微粒社会之中,其间潜藏着这样一个悖论:“那些高度不透明的数字化机器,正在创造着无法辩驳的透明。这样的对立也让我们的制度不堪重负。国家陷入压力,一方面要保护民众,使其不为数字化耀眼的光芒所伤;另一方面又要将光芒照进机器的黑暗当中。”微粒社会的透明度失衡状态,促使人们对算法透明度的呼唤和呐喊,并使得算法透明度成为算法社会中备受尊崇的“新宗教”。然而,当我们将传统透明度理论用于指导算法透明度实践时,却面临着传统透明度理论与算法透明度实践之间“圆凿方枘”的张力,并导致算法透明度实践陷入“进退失据”的现实困境。鉴于此,本文倡导算法透明度理论的“关系”转向,从关系视角来理解算法透明度的多重维度,建构基于关系的算法透明度模式,并在具体制度设计上遵循“透明度设计”理念,科学合理地设计算法透明度的具体机制,真正实现“有意义”的算法透明,有效发挥算法透明度在算法治理中的制度价值。

参考文献

[1][英]杰米·萨斯坎德.算法的力量:人类如何共同生存?[M].李大白,译.北京:北京日报出版社,2022:219.

[2]苏宇.优化算法可解释性及透明度义务之诠释与展开[J].法律科学(西北政法大学学报),2022(1):133-141.

[3]沈伟伟.算法透明原则的迷思——算法规制理论的批判[J].环球法律评论,2019(6):20-39.

[4]汪庆华.算法透明的多重维度和算法问责[J].比较法研究,2020(6):163-173.

[5]魏远山.算法透明的迷失与回归:功能定位与实现路径[J].北方法学,2021(1):151-160.

[6]张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018(3):65-74.

[7]张恩典.算法影响评估制度的反思与建构[J].电子政务,2021(11):57-68.

[8]张欣,宋雨鑫.算法审计的制度逻辑和本土化构建[J].郑州大学学报(哲学社会科学版),2022(6):33-42.

[9] Zimmerman M.Intrinsic vs. extrinsic value[C].Stanford encyclopedia of philosophy,substantive revision wed Jan 9,2019.

[10]安晋城.算法透明层次论[J].法学研究,2023(2):52-66.

[11][英]凯伦·杨,[英]马丁·洛奇.驯服算法:数字歧视与算法规制[M].林少伟,唐林垚,译.上海:上海人民出版社,2020:25.

[12]高奇琦.数字世界的例外状态与赤裸生命:来自阿甘本的启示[J].山西大学学报(哲学社会科学版),2022(5):1-10.

[13]李晓辉.算法商业秘密与算法正义[J].比较法研究,2021(3):105-121.

[14]马长山.算法治理的正义尺度[J].人民论坛·学术前沿,2022(10):68-76.

[15]Association for Computing Machinery US Public Policy Council,Statement on algorithmic transparency and accountability[EB/OL].(2017-1-12)[2022-12-10]. https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.

[16]张恩典.反算法歧视:理论反思与制度建构[J].华中科技大学学报(社会科学版),2020(5):60-71.

[17] Hood C,Heald D.Transparency:the key to better governance?[M]. Oxford:Oxford University Press, 2006:27-28.

[18][英]马丁·摩尔,达米安·坦比尼.巨头:失控的互联网企业[M].魏瑞莉,倪金丹,译.杭州:浙江大学出版社,2020:113.

[19] Dietvorst B J,Simmons J P,Massey C. Algorithm aversion:people erroneously avoid algorithms after seeing them err[J].Journal of experimental psychology:general,2015,144(1):114-126.

[20]袁康.可信算法的法律规制[J].东方法学,2021(3):5-21.

[21][德]韩炳哲.透明社会[M].吴琼,译.北京:中信出版社,2019:1.

[22]Tielenburg D S.The “dark sides” of transparency:rethinking information disclosure as a social praxis[D]. Master’s thesis submitted for the research master’s philosophy utrecht university,2018:10-40.

[23]Henriques A. Corporate truth:the limits to transparency[M]. London:Earthscan,2007:54.

[24] Foessck J,Oxelheim L.The oxford handbook of economic and institutional transparency[M].Oxford: Oxford University Press,2015:3-25.

[25]王娟,叶斌.“负责任”的算法透明度——人工智能时代传媒伦理建构的趋向[J].自然辩证法研究,2020(12):66-72.

[26]丁晓东.论算法的法律规制[J].中国社会科学,2020(12):138-159+203.

[27] Goodman B,Flaxman S.European union regulations on algorithmic decision-making and a “right to explanation”[J].AI magazine,2017,38(3):50-57.

[28]Selbst A D,Powles J.Meaningful information and the right to explanation[J].International data privacy law,2017,7(4) :233-242.

[29]Coglianese C,Lehr D.Transparency and algorithmic governance[J]. Administrative law review,2019,71(1): 20-21.

[30]Markus D,Pasquale F,Das Sunit.The oxford handbook of ethics of AI[M].Oxford: Oxford University Press, 2020:197-214.

[31]Meijer A.Understanding the complex dynamics of transparency[J].Public administration review,2013,73(3): 429-439.

[32]Felzmann H,Fosch-Villaronga E,Lutz C,et al.Towards transparency by design for artificial intelligence[J]. Science and engineering ethics,2020,26(6):3333-3361.

[33]Giunchiglia F,Jahna Otterbacher J,Kleanthous S,et al.Towards algorithmic transparency:a diversity perspective[EB/OL].(2021-04-12)[2023-05-21].https://arxiv.org/abs/2104.05658.

[34][美]约叔华·A.克鲁尔,乔安娜·休伊,索伦·巴洛卡斯.可问责的算法[J].沈伟伟,薛迪,译.地方立法研究,2019(4):102-150.

[35]Ananny M,Crawford K.Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability[J].New media & society,2018,20(3):973-989.

[36][立陶宛]伊格纳斯·卡尔波卡斯.算法治理:后人类时代的政治与法律[M].邱遥堃,译.上海:上海人民出版社,2022:63.

[37]Suzor N,West S,Quodling A,et al.What do we mean when we talk about transparency? Toward meaningful transparency in commercial content moderation[J].International journal of communication,2019,13:1526-1543.

[38]Tamò-Larrieux A. Designing for privacy and its legal framework[M].Cham:Springer,2018:203-226.

[39] Kemper J,Kolkman D. Algorithmic accountability without a critical audience[J].Information,communication & society,2019,22(14):2081-2096.

[40] Barfield W.The Cambridge handbook of the law of algorithms[M].Oxford: Cambridge University Press,2021:121-138.

[41]丁晓东.基于信任的自动化决策:算法解释权的原理反思与制度重构[J].中国法学,2022(1):99-118.

[42]Kim P.Auditing algorithms for discrimination[J].University of pennsylvania law review online,2017(166):189-203.

[43]Raji I D,Smart A,White R N,et al.Closing the AI accountability gap: defining an end-to-end framework for internal algorithmic auditing[C].Proceedings of the 2020 conference on fairness,accountability,and transparency. January 27 - 30,2020,Barcelona,Spain.New York:ACM,2020:33-44.

[44]Sandivig C,Hamilton K,Karahalios K,et al.Audit algorithms: research methods for detecting discrimination on internet platforms[C]∥Data and discrimination:converting critical concerns into productive inquiry,a preconference at the 64th annual meeting of the international communication association. May 22,2014:8-16.

[45]Baillargeon P. Asymmetrical governance:auditing algorithms to preserve due process rights[C].University of windsor major papers,2021,(178):1-41.

[46]宾凯.政治系统与法律系统对于技术风险的决策观察[J].交大法学,2020(1):137-151.

[47][美]兰登·温纳.自主性技术:作为政治思想主题的失控技术[M].杨海燕,译.北京:北京大学出版社,2014:252-253.

[48][德]克里斯多夫·库克里克.微粒社会:数字化时代的社会模式[M].黄昆,夏柯,译.北京:中信出版集团股份有限公司,2018:148-149.

[49]Bovens M,Goodin R E,Schillemans T.The Oxford handbooks of public accountability[M]. Oxford:Oxford University Press,2014:507-508.


图片源于vcg.com


华中科技大学学报

(社会科学版)

长按识别二维码关注我们


继续滑动看下一个
华中科技大学学报社会科学版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存