查看原文
其他

顾理平 | 身份识别与复制:智能生物识别技术应用中的隐私保护

顾理平 湖南师大社科学报 2023-08-28

欢迎关注“湖南师大社科学报”




作者简介

顾理平

南京师范大学新闻与传播学院教授,博士生导师。南京师范大学新闻与传播学院教授委员会主任。中国新闻史学会常务理事兼媒介法规与伦理专业委员会会长。

先后出版《新闻传播法学》《隐性采访论》《新闻传播与法治理性》等个人独著12部,在《新闻与传播研究》《现代传播》《新闻大学》等期刊发表论文150余篇。近年致力于新媒体传播中的公民隐私保护问题研究,2015年和2019年连续获得"大数据时代的隐私保护问题研究"和"人工智能时代的公民隐私保护研究"两个国家社科基金重点项目。提出的"整合型隐私"、隐私侵权中的"无感伤害"等概念得到学界的普通认可和使用。


身份识别与复制:

智能生物识别技术应用中的隐私保护


核心提示

 公民的指纹、声纹、虹膜等生物特征是其个人的核心隐私,也是确认身份的基础性依据。智媒时代,随着人不断被数字化,个人成了移动的数据库,身份也开始以智能生物识别技术的方式确认。个人身份认证和社会活动启动必须将这些生物识别技术作为通行证。人工智能的快速发展让智能生物识别技术的使用愈加便捷普遍,与此同时,个人生物特征隐私信息被泄露,身份被不当识别、假冒、复制等失范行为也时有发生。鉴于这种情况,必须通过法律的底线保护和技术的现实保护,寻求智能生物识别技术的有序安全适用,以有效保护公民的隐私。


内容精选

智媒时代,以人脸识别技术为代表的智能生物识别技术,正在沿着新科技发展的固有路径,持续、快速、全面地推进。以“行走的电脑”方式存在的现代公民,被密布于身边的各类传感器无时不在、无处不在地收集、储存、分析着各类数据。这些数据不仅成为即时认证每个人身份的依据,同时也被成为后续判断该公民行为特征的依据而持续地利用。在不知不觉间,每个人各不相同的生物特征借由功能强大的智能生物特征识别技术,成了开启社会活动之门的钥匙。这样的现实,对现代公民的隐私保护,必然会产生一系列广泛深刻的影响。

一、问题的提出

身份识别与公民的隐私保护长期以来一直是密不可分的。隐私主体身份“可指认”,在传统媒体时代一直是构成隐私侵权的主要要件之一。每个人在生活中都存在复杂性和多面性,都保有自己的隐私,每一个隐私主体也都会采取一切手段,遮蔽保护自己的隐私。在一个文明、法治的国家,这些隐私应该得到尊重和有效的保护。一旦隐私主体的身份被泄露,当事人感到“精神痛苦”,公民的隐私就会因此受损。欧文·戈夫曼提出人们在日常生活中的表演需区分“前台区域”“后台区域”和“局外区域”(即非前台也非后台的模糊区域)。“前台区域”是某一特定的表演正在或可能进行的地方;“后台区域”是指那些与表演相关但与表演促成的印象不相一致的行为发生的地方。我们有理由增加第三区域——剩余区域,即已确定的两种区域以外的所有地方。我们不妨把这种区域称之为‘局外’(the outside)区域。

人们在“前台区域”表演时会隐藏隐私,而在“后台区域”则会不加掩饰地呈现包括诸多隐私在内的自由生活。这些隐私也许会有不堪的内容,但只要当事人的身份不被“指认”,就不会产生侵权问题;反之,一旦“后台区域”的表演被泄露,当事人的人格权就会受到伤害,个人尊严一定会受损。就一般意义而言,以生物特征为核心的公民隐私信息是个人尊严、安全和自由的体现,也是国家对个体权利尊严和保障水平的体现,因此,当人工智能快速推进过程中存在某些技术疏忽可能会对公民隐私构成侵扰时,必须采取综合治理手段予以完善。  

 1890年路易斯·D·布兰代斯(Louis·D·Brandeis)和塞缪尔·D·沃伦(Samnel·D·Warren)将隐私定义为“不受打扰的权利”,“个人的人身与财产应当受到充分保护,这一原则与普通法同样古老;然而人们发现这一保护的确切性质与范围需要不时重新予以界定”,“后来,人们的精神世界、感情及心智得到了承认。这些法律权利的范围逐渐扩大,如今,生存权开始意味着享受生活的权利——不受打扰的权利;自由权保障大量的民事权利得以实践;‘财产权’这一术语发展到包括任何形式的财产——不仅包括有形财产,还包括无形财产。”

由此开始,公民隐私就逐渐作为一种权利形态而受到人们的广泛关注。在数字化社会,隐私不仅以“私人生活安宁不受非法干扰,私人信息保密不受他人非法搜集、刺探和公开”这样一种被广泛认可的形式受到关注,同时还以“通过数据挖掘技术将人们在网络上留存的数字化痕迹进行有规律整合而成的隐私”这样一种新形式存在。随着人工智能技术的快速发展,“采集于人体的指纹、虹膜、面容、声音等信息,具有唯一性和不可变更性”的隐私,在日常生活中的应用日渐普及。生物信息具有专属性、可识别性、身份表征性与不可更改性等特点,基于线性判别分析、非线性支持向量机分类或神经网络分析等方法进行机器识别后传入数据库,所以在采集和处置过程中,对公民人格权将会产生永久性影响,需要特别注意以生物隐私信息为核心的保障。但是,由于生物信息具有“本体特殊性”和“社会特殊性”,这种重要性需要寻求法律甚至刑法的特殊保护。生物识别技术的普遍应用给现代人的生活带来了极大的便利:刷脸乘车节约了验票时间、刷脸支付减少了交易环节、指纹开机和声控开门便捷了生活日常……与此同时,生物识别技术的普遍应用,也给公民的隐私安全带来挑战,因此,推广“生物识别技术的每一次大规划部署应该首先确保公民隐私权在实践中受到尊重”。伴随智能生物特征识别技术每一次应用的,是公民身份的一次次识别和确认。当然,识别和确认并不是这种技术应用的最终目的,这只是为后续的社会或商业活动开启了通行之门。“生物特征识别是身份验证的一种方式,因此,它可能用来作为一种凭证来访问更重要的隐私数据。在这种情况下,生物特征数据的披露可能暴露这些生物特征信息保护的全部个人数据,而且对公民个人隐私的攻击将可用间接的方式进行。因此,根据生物特征识别系统实现的不同方式可能会对公民隐私产生不同影响。”现代人面临的严峻问题是:这种身份识别是否安全?是否会对个人隐私带来风险?

二、个人身份生物特征之于隐私保护的特殊价值

隐私是构成一个人人格的主要要素之一。作为权利,也是人格权保护的主要内容。就更加普遍的意义而言,隐私关涉公民的个人尊严。“衣食足而知荣辱,仓廪实而知礼节”,在自我意识不断觉醒,物质条件日益充沛的现代社会,人们对人格尊严的重视与日俱增,也更加注重对隐私、名誉等精神权利的保护。“让人们在身心两个层面上都能感觉舒适安逸:在身体层面,因为没有肉体伤害而感觉安全;在心理层面,因为没有精神羞辱而感觉安全。”“过有尊严的生活”几乎可以说是每个现代人的一种生活理想,研究表明,智能媒体时代,网络技术正在成为以90后为代表的数字化生存群体生活中的一部分。“他们随数字化设备成长,对网络技术有着天然的认同和接受度”,“生物识别技术成为他们生活中不可或缺的部分。”当今社会,大数据和人工智能共同构造了无处不在的监控之眼,在这个大暴露的时代,每个人都无法有效地保护自己的秘密和隐私,形成挥之不去的“数字眩晕”。在这样的背景下,我们讨论个人生物特征隐私的独特性有着异乎寻常的意义。

(一)唯一性构成生命体不可重复

生物特征是生命个体自身特有的生理和行为特征。这种特征构成了区分他者的标志。生物特征的唯一性是导致人工智能致力于生物特征识别技术开发的基础,只有唯一性的存在才会使这种技术的开发具有应用价值。试想,如果刷脸支付成为一种普遍的交易行为,而人脸不具有唯一性,不仅会导致交易行为的巨大混乱,也可能导致宏观金融危机的产生。2021年初,一篇讨论“人脸识别技术爆出巨大的丑闻”的网文在网络热传,该网文关注的主要是人脸识别技术在实际应用中被不断假冒的多起实验及相应案例。曾经被人们认为具有较高安全性的人脸识别技术,因为技术的成熟性问题和“深度伪造”技术的快速发展,面临严峻挑战。我们在这里不讨论网络标题党存在的问题,仅网络关注的“刷脸”可被他人复制这个事实,确实令人担忧。就社会科学意义而言,我们强调人的个性化发展,个性化成为社会丰富多样的基础;就自然科学意义而言,个性化成了科学家比对、区别不同生命体的基础。生物科学中的“个体特征”、医学中的“对症下药”等话语,强调的正是不同生命体存在的唯一性的价值。

生命体生物特征的唯一性给人工智能的实际应用提供了特殊的机遇,早期的指纹识别,以及借助人工智能技术开展的“个性化服务”“私人定制服务”等,其生物基础就是个体的唯一性。随着人工智能技术的成熟,人脸识别、虹膜识别、声音控制等应用的普遍推广,就是建立在这种唯一性的基础之上的。

(二)永久性成为生命体的存世符号

人的生物特征具有持久的稳定性。从一个人出生开始,如果不发生类似于“基因突变”性质的病变或人为干预变化,这种特征就会永久以既有的形式存在,成为一个生命体固有的、独特的符号。不同特征的生命体组成了人类社会,但是,“我们人类不只是社会的生物,我们也是私有的生物”。人类作为一种生命体的大型组合,必须通过各自特质彼此区别开来。尤其令智能生物技术应用者兴奋的是,在这项技术应用的过程中,生物特征具有持久的稳定性,加上技术理性,身份识别过程中,外在社会因素的干扰几乎可以全部消除。易容术在今天的社会生活中并不鲜见。“曾几何时,身体发肤皆为自然馈赠,不可随意更改,现在却已成为人类自主选择的一部分。关于身体的可塑性,迄今为止相关的文字材料可谓汗牛充栋,从原先的锻炼塑身、健康养生到后来的用技术手段进行改造(如髋关节置换、心脏移植、隐形眼镜、电子起搏器、牙齿矫正、整容手术等),科技的脚步如此迅猛,因此,一个可以随意选择自身性别和身体形成的时代已经来临。”在这样的医学科技进展面前,经验性的个人身份识别知识,正在经历严峻的挑战。换句话说,传统的身份识别可能会导致身份识别失误或者无法识别。但是,在智能生物识别技术面前,几乎所有的易容术都无法发挥隐藏身份的作用。这个时候,人成了技术的一个组成部分,他(她)通过与技术的“默契”配合,成了技术的背景。

生物特征永久性的特征可以让人工智能对生命体身份的识别一劳永逸,这也可以解决智能生物识别技术在推广中巨大的人力物力成本。与人类可以根据自己的感觉器官去相对粗放地区别相异生命体的差异不同,智能生物识别技术可以精准地区别和指认他们的细微差别。“一系列的统计和分析方法可标明使用者的物理身份”,且这种标明具有“安全、可靠、有效的特点”。生物识别特征之所以具备“安全、可靠、有效”的特征,其核心原因是生命体的生物特征具有永久性,人从离开母体开始,基本生物特征即已形成且不会生变,构成其自身特有的存世符号。对这种特有符号的识别,可以有效地指认当事人的身份。

(三)生物特征包含众多敏感信息

人类种群除了诸多共性特征外,还会依据差异性把彼此区分开来。例如,不同种族人的肤色有差异性,五官有不同特征,身高各不相同……这些特征是不同种群人类经过千万年的自身进化和对生存环境的适应而形成的。身处寒冷地区的人和炎热地区的人对寒冬酷暑的适应能力差异很大,而他们身上的不同生物特征会令他们真正体现出“适者生存”的优势。这些生物特征对任何一个种族来说都是敏感信息。医学研究和病例实践都表明,不同种族在生存过程中形成的对环境的适应能力,在另一个侧面也会成为某种“不适性”的重要原因。例如,相同的病毒在不同种族人类的身上可能产生不同的发病概率。这些种族特有的基因构成就成了重要的敏感信息。小而言之,对每一个具体的生命体而言,在他们身上同样会有不同的生物特征体现,如肤色、体味等,这些特征对许多生命体而言是极为重要的敏感信息,令这种生物特征体现出强烈的敏感性特征。

欧盟的《通用数据保护条例》中,对“个人数据”中的生物特征进行了比较明确的保护,强调“生物识别性数据”是“基于特别技术处理自然人的相关身体、生理或行为特征而得出的数据”,因此,在个人数据处理、处理的合法性及同意的条件中都进行了非常严格和明确的规定(第5-7条)。之所以进行严格限制,就是因为包括“提示种族或民族起源,政治观点,宗教或哲学信仰,公民身份和有关健康或性生活的数据”等这些敏感数据在生物识别技术应用中“或多或少直接揭露关于个体的敏感信息”,所以特别需要谨慎行事。

三、智能生物识别应用中的隐私侵害

智能生物识别技术出现的时间虽然并不长,但由于其功能强大,应用便捷,所以在数字化社会得到了快速普及推广。但是新技术在给社会文明进步带来巨大推动作用的同时,也可能因为技术的不完善或适用过程中的失范、滥用,从而导致一些新问题的出现,对公民隐私保护构成侵扰,公民的身份在识别和使用的过程中,存在不当识别、过度识别和被复制的风险。尤其令人担心的是,公民的生物特征一旦被侵害(被复制或假冒),其损害性后果可能会持续一生。

(一)无感识别可能导致的隐私侵权

智能生物识别技术最初应用是在公民有感状态下进行的。指纹识别和人脸识别是最早和最广泛应用的智能生物识别技术。指纹识别需要人们手指接触识别器才能产生识别效用,而人脸识别则需要人们面对镜头或通过某个规定的区域才能准确识别。随着物联网技术的快速发展和各类传感器的广泛设置,人们暴露于服饰之外的身体部分则都有可能成为智能生物识别的对象。同样是人脸识别,进阶的人脸识别技术在高清摄像头的加持下,可以在当事人没有感知的情况下方便地拍摄隐私主体的不同侧面影像,并结合传感器收集到的个人活动轨迹,对当事人的行为进行分析。而在这个过程中,无论是当事人的生物特征本身,还是结合传感器对收集到的数据进行分析后产生的行为轨迹等,都是一个人重要的隐私。

随着智能生物识别技术的快速发展,智能识别不仅可以应用于现实世界——通过与人直接接触进行生物识别,还可应用于虚拟世界。通过对人们留存于网络世界的活动影像和图片进行非接触性的生物识别。数字化社会的到来和智能手机的普及让人们切实感受到了网络带给人们的诸多便捷。数字化生存成为现代人生存方式的一种真实表达。人们寄存于网络世界,借助简单方便的动作完成网购、外卖等曾经复杂烦琐的生活日常,也通过阅读、分享、聊天完成着相应的社交生活。这个过程中留在网络世界中的图片影像则成为智能生物识别的重要数据,而所有的一切都是在人们无感状态下进行的。从智能生物识别技术的快速进展中,我们似还可以作出这样的预期:人们留存于网络世界的数字化痕迹,在目前尚未真正进入到可以用来进行生物特征识别的阶段,但不久的将来,个人的打字速度、鼠标点击力度、观点表达习惯、浏览兴趣、关注重点等看似与生物特征无直接关联的数据,也会在无声无息之中,被纳入智能生物识别技术的数据库中,成为识别和确认个体的重要指标。无感识别的最大风险是隐私主体“不知情”。早期的指纹、人脸识别是在有感状态下进行的,所以客观上会让隐私主体产生“知情”之感——至于是否同意则难于确认。这种“知情”可以让其有一定程度的“自决”选择。无感识别则令隐私保护基本原则中“知情”和“自决”的链条整体失效。

  特别需要说明的是,在相当长的时间里,人们总是觉得智能生物识别技术只能应用于现实世界,而虚拟世界中的活动虽然也可以产生大量数据,但这些依据数据产生的隐私与生物隐私无关,然而事实上,随着智能识别技术的成熟,借助网络世界中的影像和图片进行生物识别已变成可能。

(二)失范识别存在的故意侵权

智能识别技术作为一种高新技术,在现实生活中有着广泛的应用前景,但是,由于法律的规制无法跟上技术的发展速度,所以失范应用行为较为普遍存在。“从技术上看,自动感应设备设施的大规模应用,可穿戴设备、仪器的普遍使用,大量个人隐私信息的自动采集、生成,高效快捷传播和智能化、自动化处理,使个人隐私信息更容易被泄露,被不法人员非法使用或者进行非法的商业交易、传播。”失范应用在具体实施中会有不同的方式,也存在于应用的不同阶段。2019年8月30日,一款名为ZAO的人工智能换脸软件在微信、微博等社交媒体上迅速受到网民关注。该软件的主要特点是用户只需要一张正脸照片,就可以将视频中的人物替换成自己的脸。通过这种简单操作,网民可以方便地代入到某种场景之间,完成角色替换的心愿。这样的操作手法极大地满足了用户的好奇心,于是“换脸”一时成为热词。但是,人们很快对这款智能软件中存在的问题产生广泛质疑:第一,原视频制作者的版权问题;第二,应用软件中隐私政策相应规定的失范问题。这里暂且不讨论未经他人许可修改使用他人视频作品可能侵犯他人著作权的问题。稍加分析,就可以发现,这款软件的隐私政策存在着严重的缺陷,如隐私政策规定“在您上传或发布用户内容之前,您同意或确保实际权利人同意授予‘ZAO’及关联公司以及‘ZAO’用户全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于可以对用户内容进行全部或部分的修改与编辑……”这种“永久”“可转授权”“免费”“全球范围内”的表述,充满着霸王条款的意味。尽管在网民的强烈抗议和相关部门的干预下该条款很快作了修正,但前期隐私政策顺利出台本身,就从一个侧面说明不少智能技术应用中相关组织和个人存在的对隐私权利的漠视。

 如前所述,由于大量网民在隐私意识没有高度觉醒之前或人工智能技术还没有成熟之前,他们在网络中上传了大量个人照片和影像,而网络的“不可删除”特征又无法让这些图像数据真正不留痕迹,这为某些网络商家失范行为留下了巨大的可能性。例如Facebook可以在用户毫不知情的情况下对用户上传的个人人脸图片进行识别,通过与数据库进行比对从而进行个人身份的确认和其关系网络的展现。除此之外,公民个人信息也在被第三方组织共享而不需要通知到个人。这种借助人工智能技术失范使用公民数据的行为,如果任其泛滥,将对公民的隐私权利构成严重挑战。至于一些人通过智能生物识别技术恶意假冒、伪造公民的身份从事违法犯罪行为,由于是非界限比较清楚,这里就不再讨论。

(三)不当应用导致隐私主体身份被复制

数字化社会中,公民除了具有自然人格外,还(必须)拥有数字人格。“许多学者指出,数字媒体(尤其是互联网)颠覆了许多文化所珍视的观念,比如每个身体中都包含一个自我。数字媒体似乎把自我和身体截然分开,造就了一种仅仅存在于行动和语言中的无实体身份(disembodied identities)。新媒体的可供性为探索和呈现自我以及他人提供了新的可能性。”在许多时候,数字人格在社会交往中更具有现实意义。与之相对应,当今社会每个公民都具有自然身份和数字身份两种身份。基于生命体生物身份的唯一性,自然身份是无法被复制的。但是,依托自然身份产生的数字身份,却存在被复制的风险。

数字身份复制目前主要存在两种可能风险:第一,直接复制,即通过公民留存于网络空间的图片或影像资料进行人脸、指纹的直接复制。有专家曾经建议公民拍照时不要随意使用“剪刀手”姿势,因为借助高清镜头,照片中的“剪刀手”可能会导致指纹被他人数字化复制。至于借助3D人脸动态方式等制作“假脸”从而进行刷脸盗刷银行卡,则已有多起真实案例发生。第二,“伪造”复制。目前,人工智能技术中的“深度伪造(Deepfake)”问题已开始受到研究者的关注。“深度伪造”是由计算机“深度学习(Deeplearning)”和“伪造(fake)”两个词组合而成。它是“通过自动化的手段,特别是使用人工智能和算法技术,进行智能生产、操纵、修改数据,最终实现媒体传播行为的一种结果”。目前学者们往往从虚假新闻的视角来关注智媒时代的“深度伪造”问题,其实除此之外,从宏观角度看,“深度伪造”与国家安全,从微观角度看,“深度伪造”与公民身份复制都存在密切关系。借助“深度伪造”技术,某些别有用心的人可以实现对他人数字身份的复制,从而实现其非法目的。

个人身份的识别对于社会的有序发展意义重大。在智能生物识别技术产生之前,个人自然身份的识别主要借助可见和可触摸的方式进行,由于自然身份的唯一性,除了极少数如双胞胎等特例外,自然身份被假冒或替代的情况较少发生。数字身份的产生和在现实社会中的广泛应用,则让身份识别存在巨大的隐患。一方面,网络应用的日常化和5G技术的成熟,为智能生物识别技术的推广准备了良好的技术条件。另一方面,随着手机等智能移动终端的普及,智能生物识别技术应用场景不断被制造出来。数字身份成了人们打开社会活动之门的钥匙,人们的学习、工作和生活日渐由线下转入线上,形成线下线上广泛互动且不断趋向线上的状态,于是,数字身份的潜存风险开始呈现扩大化的趋势。

四、智能生物识别技术中公民隐私保护的两极原则

“如果这个网络不安全,那么它是没有价值的。因为智能互联网大量的应用和服务与社会安全、生活安全息息相关。”强调包括智能生物识别技术在内的网络技术安全,对于数字化生存中的现代公民而言,确实异乎寻常地重要。而在诸多网络安全问题中,公民的生物隐私安全无疑是一个十分重要的安全问题,因为隐私事涉公民人格尊严。如果公民尊严不保,推进人工智能技术不仅对人类文明进程无益,甚至是有害的。基于这种思考,我们强调对公民的生物特征隐私的保护应着力于底线的法律保护和现实的技术保护这两极。

(一)公民隐私底线保护由法律托底

人工智能技术的推进给社会带来了巨大的进步活力和发展可能性。我国在2017年就将人工智能上升为国家战略,并通过积极实施这一战略,推动着中国社会现代化进程的加速。国家层面对人工智能技术的推动,也加速了智能生物识别技术应用的普及。从日常生活中的无线智能支付,到抗击疫情期间的流调防疫,智能生物识别技术的便捷安全等特征,展现了其良好的适用性。但是我们也必须清醒地意识到,智能生物识别技术作为依托人工智能进行个人身份识别的一种技术,其实施过程中必将触及大量公民的生物特征隐私。从法律层面看,如何给全体公民提供安全可信的客观预期,如何对这些生物特征隐私加以有效保护,现有的法律并不能提供现成的规范。我国的《民法典》和《网络安全法》等虽然可以提供公民个人数据和隐私信息保护的法律依据,但涉及公民生物特征隐私,依然存在许多待填补的空白地带。

知情同意和信息自决构成了数字化社会公民隐私保护的最基础性的法律原则,但智能生物识别在应用过程中的无感、即时识别,则会导致这一基本原则的失灵。这是因为,智能生物识别技术应用过程中,公民无法“知情”——绝大多数生物特征采集识别是在公民未感知状态下进行,也无法提供同意与否的态度——事实上智能生物识别技术都被前置了默认同意的前提。隐私作为一种公民的人格权利,在智能生物识别技术面前只能以义务的状态存在。权利享用的特点是主体拥有选择权,即拥有同意、反对或弃权的权利选择,在这个过程中,即使作出“弃权”选择,也是权利主体的一种真实的意思表示。但在智能生物识别技术面前,隐私主体甚至没有作出意思表示的机会。作为隐私权主体的公民只有以履行义务,即“接受识别”的方式出现。基于这种现实,法律应该从预防和救济层面做出努力。

法律预防的核心是对智能生物识别技术的实施方进行主体权利限定。智能生物识别技术主要应用于社会治理和商业活动中,因此必须从法律层面对社会治理者和商业机构行使识别权进行规范。法律应该“特别授权国家公权力机关采集使用个人生物识别信息”,“私人实体向信息主体发送或出示的书面协议应严格遵循保护个人信息自决原则”。新冠疫情防控期间,我们国家借助车站、机场等公共场所设置的人脸识别等设备进行流调,为控制疫情发挥了重要作用,但与此同时,滥用智能设备,不当处置泄露公民隐私信息的个案时有发生。在网络使用中,人脸识别和指纹识别在许多时候成为公民开启各类移动应用的前置条件,但是,超范围收集、失范使用、不当存储公民生物隐私信息的情况时有发生。所以,对社会治理者而言,法律的预防应强调“公共利益”,必须对设置智能生物识别技术的主体进行明确限定,即必须与“公共利益”相关,设置的目的是保护“公共利益”。对商业机构的法律预防则强调其隐私政策中,对公民生物特征的收集识别在坚持“最少必要”原则的基础上,必须“明示”收集识别和使用范围,确保“知情同意”得以实现,同时规定对违规行为的法律惩处措施。“生物特征敏感数据可以包括医学检查、民族/种族、行为信息或有关性生活的数据。一般来说,敏感的生物特征信息(如民族起源)的处理需要数据主体的明确同意。” 

法律救济对于保护公民的生物特征隐私同样意义重大,它和法律预防一起构成了法律层面完整的隐私保护链条。救济的有效性可以确立公民隐私保护的自觉意识和信心。欧盟的《通用数据保护条例》支持每一个数据主体向监管机构投诉,提起司法诉讼以及必要赔偿。类似的实践在中国社会也开始出现。2019年,杭州市民郭兵以1360元的价格购买了杭州野生动物园入园双人年卡,并确定了指纹入园方式。此后,该动物园调整入园方式为人脸识别并要求郭兵激活人脸识别系统,否则无法正常入园。此后,双方就入园方式、退卡等事宜发生异议,协商未果后郭兵提起诉讼。法院一审判决野生动物园赔偿郭兵合同利益和交通损失1038元,删除其办理指纹年卡时提交的包括照片在内的面部特征信息,同时驳回其他诉讼请求。这一被称为“人脸识别第一案”的案例的判决,从一个侧面说明了生物特征之于公民的意义及法律救济保护的价值。在未来的法律制定中,智能生物识别及公民的生物特征隐私保护理当成为法律关注的重要内容。

(二)公民隐私现实保护倚仗技术介入

技术进步导致的问题,应该首先寻求技术解决问题的手段,这是理所当然的。“虽然在法律层面保护隐私是必需的,但是光靠法律是解决不了问题的。……法律的制定永远落后于案件的发生,尤其是在大陆法系的国家。因此,除了法律手段外,我们还必须有相应的技术手段维护个人的隐私。”智能生物识别技术导致的公民隐私困境,其现实的成因是由新技术的应用导致的,所以,探寻技术解决方案变得迫在眉睫。“在生物识别技术中,技术呈现出由中介地位向介入地位转向的趋势,生物识别技术存在的个人生物信息案例隐患问题,就必须明确各类技术主体的责任,在技术的设计阶段尽可能预见技术可能会产生的后果,并在此基础上进行合理的行为选择,以实现人类共同利益的最大化。”

第一,技术设计中的动静结合设计思路。数字化生存社会的本质是规则之治,即通过完善的规则设置,确保智能技术的有序推进。我们经常讲代码是“塑造网络空间的法律”,在特定意义上说,代码编程和算法设置规定了网络空间的基本秩序,因此,在智能生物识别技术之初,从安全主旨出发,设置完善的技术程序显然是十分有价值的。计算机工程师应该坚持“科技向善”的伦理原则,加强自律,重视技术安全,降低公民身份被复制的风险。在这个过程中,根据公民生物数据的自身固有特征,采取动静结合的设计思路是保障智能生物识别技术安全,保护公民隐私的可行路径。公民生物特征的唯一性和永久性特征,导致这些作为识别特征的隐私一旦泄露,将会产生永久性的隐患(伤害),因此,在生物识别的设计思路上,应贯彻动静结合的原则。动,是指公民生物特征中静脉、声纹等需要借助公民出现在识别现场的生物特征;静,是指指纹等公民无须出现在识别现场的生物特征。动静结合的思路,可以确保识别的生物主体的真实身份,令其“知情”,然后做出自己的行为选择,真实贯彻信息自决的隐私确认原则——“同意”与否的意思表示是隐私主体真实的意思表示。

第二,技术适用重要事项的二次确认。智能生物特征识别技术适用之初,由于技术的复杂和应用成本的高昂,普及程度有限,应用场景相对不多,应用成本也较高,所以,公民隐私受到伤害的情况较少发生。随着技术的进步,该技术的适用方式日趋简便,应用成本快速下降,成为一种日常应用的技术。与此相对应,借助该技术侵害公民隐私的行为也频频发生。因此,提升技术适用的科学性和严谨性变得愈加迫切。基于这种现实,笔者建议区别不同的应用场景,积极推行重要事项的二次确认。“多生物特征的使用能够拉回生物特征识别系统的安全性。实际上,增加识别时的信任凭证数目能够遏制欺骗攻击。”这里所指的重要事项,是指通过智能生物识别技术确认身份后,生物主体后续将会作出重要决策的事项。例如,公民通过人脸识别进入商场、车站等,一般不认为是重要事项,但如果需要进入重要的会议现场或机密场所,则被认为是重要事项。再如,通过指纹识别进行交易,可根据金额的大小确认事项的重要与否来确定是否需要增加第二次识别。换句话说,是否属于重要事项,可以进行事先预判:生物主体是否会进行个人的重要决策或者生物隐私失窃是否会导致严重后果?在此基础上,确定是否需要通过二次确认,即两种不同方式的智能生物识别技术对隐私主体的身份进行确认。

第三,技术处置中的“最小必要”原则。“为了能够得到便捷的服务,人们经常按照服务条款上的要求把个人信息让渡给服务商。在人与网络高度融合的条件下,人们事实上很难摆脱对智能机器的依赖。”事实上,在数字化社会,无论是社会治理还是日常生活,所有的社会成员已经无法离开数据活动,而智能技术的及时介入,则令数据的功效发挥得愈发充分。我国新冠肺炎疫情防控期间,曾经发生多起因处置不当而导致流调所涉公民生物隐私信息被泄露事件,使多位公民隐私权利受损,这种失范情况具有警示意义。公民生物特征具有永久性特征,一旦被泄露,就不存在真正意义上的“救济”,即不可能恢复到“他人不知道”的原状,因此,在通过设备收集到相关公民的生物特征信息后,在技术分析、结果应用和信息储存等诸多处置环节,必须严格坚守“最小必要”原则。我国《网络安全法》规定网络运营者收集和使用个人信息“应当遵循合法、正当、必要的原则”。欧盟《一般数据保护条例》则强调目的受限(Purpose Limitation)和数据最小化(Date Minimisation)。不同国家和地区相关的规定,为“最小必要”原则提供了法规依据和原则的有效借鉴,这对智媒环境下公民隐私保护具有十分重要的意义。

除此以外,对通过智能生物识别技术采取“脱敏”的预处理方法也非常有必要。通过这种预处理,令数据工程师可以顺利处理这些生物特征数据,但不能“认识”这些数据,即不能让隐私数据与隐私主体进行直接关联。“我们可以并且应该控制科技所产生的风险,但碰巧的是,要做到这一点的最佳方式是开发更多技术,尤其是更加值得信赖的技术。”智能生物识别技术完善的每一点努力,都会有助于公民隐私得到更有效的保护。


文献引用格式

顾理平.身份识别与复制:智能生物识别技术应用中的隐私保护[J].湖南师范大学社会科学学报,2021(4):123-130.



本文刊发于《湖南师范大学社会科学学报》2021年第4期传播学栏目,参考文献从略。


欢迎投稿


《湖南师范大学社会科学学报》

http://hnss.cbpt.cnki.net

《湖南师范大学社会科学学报》

国家社会科学基金资助期刊

中文社会科学引文索引(CSSCl)来源期刊

国家期刊奖百种重点期刊

全国中文核心期刊

中国人文社会科学核心期刊

全国高校社科名刊

主编:李培超

副主编:尹金凤

本文责编:尹金凤

编辑部电话:0731-88872471


微信公众号编辑:刘昌良


相关文献


陈堂发:论新媒体环境下隐私收缩性保护与价值差序

孙昊亮,马荣:著作权法视域下的“新闻搬运工”法律隐喻

林爱珺,余家辉:机器人写作的身份确权与责任归属研究

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存