2024年5月27日发(作者:米高澹)
算法社会下个人信息保护的难题
作者:王智慧
来源:《天水行政学院学报》 2020年第2期
[收稿日期] 2020-01-03
[作者简介] 王智慧(1995—),女,河南商丘人,湘潭大学硕士研究生,研究方向为法学
理论。
王智慧
(湘潭大学,湖南 湘潭 411105)
[摘要] 算法的大规模应用给人类生活带了前所未有的便捷,智能产品、智能搜索和导航、
个性化的定制服务、精确的推荐等等。我们在享受如此高效便捷的同时,不免担心随之而来的
诸如APP窃听、信息泄露、算法歧视等问题。传统法律制度下关于个人信息保护之规定已经不
能满足社会变化所带来的新的需要。完善法律规定,建立“算法+专门机构”的双重监督模式,
同时加强公民个人信息保护意识,才能更好地适应社会新变化。
[关键词] 算法社会;信息保护;算法歧视
[中图分类号] DF624 [文献标识码] A [文章编号] 1009-6566(2020)02-0093-05
一、引言
“我们正生活在一个算法社会(algorithmic society)”[1],算法应用于人类生活的各
个领域。智能搜索引擎、智能电器、智能APP、智慧法院,从日常生活到法律决策,算法都扮
演着重要的角色。
如在消费领域,在算法出现之前,消费者看到的是千篇一律的广告宣传和优惠,但是算法
的出现改变了这一现象,通过算法分析消费者的历史浏览页面、搜索内容、购买记录、金额等
等,从而有针对性地向不同的消费者推荐不同的商品和服务。消费者下一步的购买或者搜索行
为又会给算法以新的分析数据,这种定制化推荐使得算法越来越了解每一位消费者。经过三年
的使用,亚马逊的数据开采引擎已对我的信息做了忠实的记录,并能向我推荐我应该买的东西。
它会向我发广告,但这些广告(与我在现实空间所见99%的广告都不同)实际上是专门为我定
制的,它们说的是我想听的东西。”[2]
算法在消费领域的应用极大地节约了宣传的成本,算法应用之前,我们无法确切了解每个
消费者的需求,但现在我们可以清晰地向不同用户投放其所需要的内容。使得消费者免于在不
情愿的事情上浪费时间[3]。
算法的重要作用还可以体现在法律领域。我国部分城市的法院已经开始运用人工智能算法
辅助办案,“如海南法院使用的智能量刑系统,使用该系统后,法官办理量刑规范化案件、制
作裁判文书、制作程序性法律文书的时间大大缩短,减轻了法官量刑办案的工作量。”[4]“浙
江省高级人民法院与阿里巴巴达成战略合作,法院利用算法和阿里各大平台的数据,获取涉案
当事人的身份信息、联系电话和地址、消费情况等,解决了因当事人填写虚假地址而无法送达
文书的难题,而在法院的不良记录也会限制当时的网上消费,从而推动涉案当事人尽快执行判
决。”[5]
二、个人信息保护在算法社会面临的挑战
算法社会确实给我们带来了各种便利,我们可以随时随地了解来自世界各地的消息,享受
各种个性化推荐和服务。但是也有人开始质疑这种广泛的应用。“一些人害怕这种永久的监控
系统会使我们失去隐私,另一些人担心这种要什么给什么的系统会使个体之间日渐疏远。”[6]
但算法提供个性化的商品和服务,只是其根据个人的历史记录和搜索行为进行分析,并给予每
个人定制化安排,这是算法运用的初级阶段。更令人担忧的是,为了使预测的结果更加准确、
能够得到更多的支持和采纳,算法可能会转向对人的行为进行控制。如“剑桥分析事件”就是
一个典型的例子。“剑桥分析”公司利用5000万Facebook用户的信息,操纵美国大选及英国
脱欧公投。
所有这些算法的应用都基于我们的个人信息,个人信息可被共享、被泄露、被交易。在算
法社会里,收集个人信息似乎更加容易,我们的个人身份信息、搜索信息、购买信息、浏览记
录被算法所收集存储,除了给我们提供个性化的商品和服务外,这些信息是否也被用于控制我
们的行为或者其他不法用途呢?这个时候我们必须开始思考:个人信息安全在算法社会到底面
临什么样的挑战?
1.过度收集个人信息。2019年3月,一则名为美团、饿了么否认偷听的微博热搜引发了广
泛讨论。事情起源于2018年,一位读者于2018年11月的投诉引起了记者的注意,他怀疑外卖
APP在“偷听”自己说话。随后,《IT时报》记者耗时三个多月的时间,通过模拟用户使用场
景,对安卓手机、苹果手机、苹果平板电脑上的饿了么和美团外卖进行多轮测试。从测试情况
来看,在随后数分钟到数小时的时间里,出现相关推荐的概率高达60%-70%。对此,饿了么和
美团回应:不存在“偷听”!之后,记者更新了最新iOS版美团外卖、饿了么,它们都不再索
取麦克风权限,不过安卓版里的录音权限依然存在。相信很多人都有过类似的经历,刚说了想
吃什么,手机里就蹦出了它的推荐;刚说了要买什么,就出现了广告;刚谈论到某个明星,一
些APP上就推荐了他的故事。种种不可思议的现象,难道只是巧合吗?到底有多少APP在我们
不知道的情形下收集我们的信息?我们是否授权APP通过监听我们的日常对话来给我们推荐商
品和服务?我们授予了软件录音权限,仅仅是允许该软件语音输入功能的使用,并不希望该软
件私自后台运行该功能“偷听”自己讲话。
目前,大多数APP都存在过度收集信息的情形。许多APP的使用和获取信息是捆绑在一起
的。多数APP在使用时必须勾选同意获取定位权限、访问联系人、访问信息等相关权限的授权,
如果点击拒绝,APP就会自动退出,再次打开依旧需要进行选择。一部分APP,拒绝授权后,某
些功能将会限制使用。还有一部分APP拒绝授权不影响使用,但是之后每次打开都会弹出授权
页面。
“2018年11月中国消费者协会曾对10类共100款常用APP的隐私政策进行测评,结果显
示:在参与测评的APP中,有91款存在过度收集或使用个人信息的情况;59款未明确告知收
集个人信息的类型,且收集敏感信息时未明确告知用户信息的用途;42款对外提供个人信息时
不会单独告知并征得用户同意。2019年7月APP专项治理工作组通报了天天酷跑、探探等20
款APP,要求用户一次性同意开启多个收集个人信息权限的情况,如果用户不同意那么就无法
使用该APP的全部功能。”[7]至于这些信息是否被用于软件的运行,运营商能否保证信息主体
的信息安全,用户并不知情。
2.非法出售个人信息。算法社会个人信息的不当使用滋生了许多非法交易,例如淘宝诈骗,
现在有许多专门的淘宝诈骗团伙,他们首先收购淘宝客户信息,冒充客服与淘宝客户进行联系,
以商品有问题需要退款或者取消会员为由,诱导受害者在蚂蚁借呗等借贷平台上借钱,再把钱
打入伪造的商户平台以流入诈骗团伙支付宝账户。央视新闻此前曾披露,在互联网平台“转转”
上,10元可买5000多张人脸照片,在百度“快眼”贴吧上,也有人在售卖人脸数据,将信息
主体的姓名、身份证照片、银行卡和手机号等信息低价打包销售。经调查,这些信息并没有经
过当事人的授权允许。在算法社会,人们之间的交流、学习、娱乐大都转移到了网络之上,我
们的照片、联系方式、聊天记录、购买记录等信息也在网络上流传。这些信息被一些企业运用
算法聚合收集在一起之后,出售给有需要的商家,部分商家根据这些信息向消费者投放特定的
商品广告。而有些信息被用来注册软件,给当事人的日常生活带来困扰。“目前,网络交易平
台上存在专门收集、出售个人信息的企业,有些个人信息是通过在公开网站上收集获得,有些
则是利用技术手段非法抓取。”[8]
3.个人敏感信息的滥用。算法社会中的个人信息具有广泛性的特征,它不仅包含信息主体
的个人基本信息,还包括信息主体在算法社会一系列的活动记录,如网上交易记录、网上搜索
记录等。目前,我国法律并没有明确区分个人一般信息和个人敏感信息,仅对个人信息的含义
进行了规定。按照《信息安全技术个人信息安全规范》解释来说,个人敏感信息是指一旦泄露、
非法提供或滥用可能危害人身和财产安全,极易导致个人名誉、身心健康受到损害或歧视性待
遇等的个人信息。而在算法社会,个人敏感信息更加容易被泄露、利用、交易。我们所熟知的
算法歧视问题,一方面是由于算法制度本身的不透明性;另一方面,也是由于信息主体的个人
敏感信息被收集滥用。什么是算法歧视?我们都知道,算法相比于人类的判断,最重要的特征
就是批量化、程序化,算法判断全部依赖于输入的信息。我们对是否属于算法歧视的认定是否
掺杂了价值判断?有关于是否属于算法歧视主要有两种不同的声音:第一种主张算法歧视不存
在,这种主张主要是从技术论出发,认为技术是中立的,算法是一种自主学习和数据反馈的机
制,算法歧视问题是人类已有偏见的扩大;第二种主张从结果论出发,主张算法歧视存在。认
为已经产生了许多现实存在的歧视问题:①价格歧视:也即我们所熟知的“大数据杀熟”。如
许多商业平台采用动态定价方案,针对不同消费者的消费水平显示出的价格是不同的,这种价
格歧视行为被称作“大数据杀熟”[9]。②人格歧视:如谷歌推出的机器人误把两名黑人标注为
“大猩猩”,微软公司推出的聊天机器人,被认为是集反犹太人、性别歧视、种族歧视于一身
的“不良少女”[10]。
笔者认同第二种观点,商家通过收集消费者的个人敏感信息,采用动态定价方案,使消费
者的财产受到了损害,也侵害了消费者的平等权。而一些软件通过算法分析信息主体的肖像、
聊天记录,将黑人标注为“大猩猩”,侵害了其名誉和身心健康。如果法律禁止企业或网络运
营商收集这些个人敏感信息,或者禁止其不当使用个人敏感信息,这些歧视问题将不会出现。
三、现行法律制度对个人信息保护的情况及困境
(一)我国法律对个人信息保护的现状
目前,我国关于个人信息保护还没有专门的立法,有关其规定散见在相关部门法之中。但
部门法规定并不是很齐全,大多数法律只规定了原则性内容,如《民法总则》第一百一十一条
主要规定了自然人的个人信息受到法律的保护,他人应当依法获取并保障信息安全,不得非法
利用个人信息;《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》主要定义了
个人信息的含义以及规定了提供个人信息违反法需要承担的法律责任;《中华人民共和国网络
安全法》第四十一、四十二、四十三、四十四、四十五条主要规定了网络运营者收集、使用个
人信息需要遵循的原则,网络运营商对个人信息负有的义务;《全国人民代表大会常务委员会
关于加强网络信息保护的决定》第五条、第八条主要规定了网络服务提供者对其用户的信息负
有相关的管理义务;《刑法修正案九》则对网络服务提供者的个人信息泄露情形提出量刑标准。
这些法律中有关个人信息具体分类、个人信息收集利用具体标准、信息主体的权利等规定并不
是很详细。
而全国信息安全标准化技术委员会于2017年发布、2018年5月1日实施的《信息安全技
术个人信息安全规范》,对于一些具体概念、行为的分类定义更加清晰,如个人信息和个人敏
感信息;个人信息主体和个人信息控制者;收集、删除、公开披露等;还对一些专有名词如匿
名化、去标识化、明示同意等含义进行界定。虽然这个文件对于企业制定信息保护政策,对于
行政机关执法认定具有参考作用,但是由于文件缺乏强制力,在发生纠纷时,信息主体或企业
无法依据此文件维护自身权益。
除此之外,2019年中央网信办、工信部、公安部、市场监管总局等四部门联合发布《APP
违法违规收集使用个人信息行为认定方法(征求意见稿)》,其中详细规定了APP违法违规收
集个人信息的7大情形,以及每种情形所包含的具体内容。2019年国家互联网信息办公室发布
《数据安全管理办法(征求意见稿)》,对个人信息的收集使用处理规则;个人敏感信息的收
集使用;网络运营商利用算法定向推送、发布信息等行为做了相对详细的规定。但这两个文件
目前还只是征求意见稿,并没有实施。
(二)困境
总体来说我国现有的个人信息保护模式可以总结为:“概括授权+例外”。对于信息的收
集需要经过信息主体的同意,法律规定的除外。但是这种概括授权模式无法为个人信息提供较
好的保护。目前,我国个人信息保护的困境主要体现在以下几个方面:
1.算法的不透明性加大了个人信息保护的难度。有学者总结了算法中三种形式的“不透明
性”,第一种是“故意不透明”,即因商业秘密或者国家秘密而产生的不透明性;第二种是
“文义上的不透明”,是因技术了解程度不同而产生的不透明性;第三种是“固有的不透明”,
由算法本身的复杂所带来的不透明性。
算法的不透明导致我们无法具体了解到算法运作的方式方法。这也就意味着我们不能清楚
地知道算法在何时收集了我们的信息,将我们的信息用作何处。算法的这一特性不仅使得信息
主体无法真实的了解其信息的运用,在发生侵权行为时,信息主体收集证据也较为困难。
2.用户没有主动权。算法社会下,个人信息的价值越来越高。而网络运营商和信息主体地
位极其不平等,运营商掌握众多的资源,导致信息主体没有主动权。为了收集用户更多的个人
信息使其利益最大化,许多运营商将非必要的授权与软件运行捆绑在一起。而信息主体为了获
取必要的资源,大多数情形下都是被迫同意,无法依据自己的想法进行选择。而且对于运营商
所告知的信息使用范围,信息主体亦无法得知其使用的真实情况,从而导致信息主体的权益得
不到保障。
3.企业不正当竞争。目前,有很多企业单纯的追求商业利益,而他们之间的不正当竞争最
终会使信息主体的权益受到损害。也有越来越多的犯罪团伙,专门运用非法手段获取信息,之
后用于犯罪活动。还有一些企业专门收集信息进行出售。这些情形都较大的侵犯了信息主体的
权益。然而在算法社会,信息收集、交换、流转更加容易,也更加隐蔽,所以给相关政府部门
的执法活动造成了很大的障碍。
4.个人信息分类不明确。我国法律并未明确规定个人一般信息和个人敏感信息的具体内容,
对一般信息和敏感信息的收集使用授权标准并未进行区分。因此,企业和运营商在收集信息时,
往往要求信息主体打包授权。但个人一般信息与个人敏感信息不能用同样的制度来规制,敏感
信息的授权应当有更加严格的规定。
四、算法社会个人信息保护路径思考
算法社会,个人信息对于信息主体、企业、政府等都有重要的作用。如何平衡各方利益,
运用法律规制个人信息的收集使用,保护信息主体的权益,促进多方主体利益的共同发展,是
目前急需思考解决的问题。算法社会下,个人信息的收集、传播都有了新的方式和特点,我们
需要转变传统个人信息保护思路,结合算法社会个人信息所遇到的新挑战,探索内外共同规制
的保护路径,以期更好地促进社会整体发展。
1.完善相关法律规定。我国现行法律体系对个人信息的保护更多的是统一的原则性标准和
处罚,缺乏根据具体行为的类型、性质所做的具体区分。而对个人信息规定更为详细的《APP
违法违规收集使用个人信息行为认定方法(征求意见稿)》和《数据安全管理办法(征求意见
稿)》还未开始实施。而且二者的法律位阶较低,对于个人信息保护所起作用大小我们还无法
预测。
随着社会科学技术的不断发展进步,个人信息侵权形式也有了较大的变化,信息主体的个
人信息权益保护也受到了较大的挑战。而我国一直缺乏一部有关于个人信息的综合性保护法律,
《个人信息法》也尚未出台。但出于加强对公民个人信息保护、遏制算法社会个人信息侵权大
规模发生的社会需要,我们可以根据目前的实践经验,制定一部专门保护个人信息的法律,而
这部有针对性的法律至少应该包含以下几个方面的内容:
(1)完善个人信息的分类。个人一般信息与个人敏感信息应该做明确的区分,相关主体可
以收集运用个人信息的范围也要做相应限制,这一点我们可以借鉴欧盟的相关规定。欧盟《通
用数据保护条例》第九条规定:对揭示种族或民族出身,政治观点、宗教或哲学信仰,工会成
员的个人数据,以及以唯一识别自然人为目的的基因数据、生物特征数据,健康、自然人的性
生活或性取向的数据的处理应当被禁止。但是如果一些敏感信息的收集是必须的,企业或运营
商可以明确征得信息主体同意后,向相关部门报备。
(2)强化明示同意原则。信息主体同意企业或网络运营商对其个人信息的收集和利用,是
建立在其充分了解该运营商所提供的隐私服务和说明条款。但现实中企业或网络运营商往往将
隐私条款说明放在相对隐蔽的位置,或者将一些基本情况说明和非常重要的个人信息运用提示
说明放在一起。对此,应该严格要求企业或运营商在收集使用信息时,将一些重要的条款以清
晰明了、更加突出的方式展示给信息主体。也可以用一种强制阅读的方式,使信息主体了解相
关条款。
(3)必要性原则。企业或网络运营商收集运用个人信息应遵循合法合理且必要的原则。目
前,有很多主体为了商业利益,收集了许多和其产品或服务不相关的信息。对此,必须严格规
范相关主体收集个人信息的行为。在算法社会,企业或运营商运用由便易途径收集到的信息,
可以为其带来更高的价值回报。但是出于对信息主体个人信息权益的保护,以及个人信息一旦
被滥用可能产生的风险和危害,企业或网络运营商不得不加限制的对个人信息加以收集。
2.建立内外双重监督机制。我们可以运用“算法+专门机关”的监督模式,从事前预防到
事中矫正再到事后救济全方位监督。算法在某些方面的运用确实有着人类无法比拟的效果,如
速度快、效率高、相对客观等。我们可以合理的利用算法的这一优点来监督信息的收集利用行
为。除此之外,可以设立专门的机构,一方面对企业或网络运营商的收集利用行为进行双重监
督,另一方面可以对算法的运行进行监管。在企业或网络运营商收集信息之前,运用算法记录
企业收集信息的范围和用途,然后分析企业的收集行为是否违反法律法规。之后,运用算法来
监督企业或运营商使用信息的全过程,一旦发现违法违规行为,可以事中介入,及时制止和矫
正企业或运营商的不当行为。为了更好的保障信息主体的知情权,可以要求企业或运营商定期
出具报告分析,方便信息主体及时了解信息运用动态。也方便专门机构的核查和社会公众的监
督。
3.加强公民个人信息保护和维权意识。算法社会中有太多设备、软件在“监视”着我们的
一举一动,我们每个人的行为都被详细的记录着。目前,大量的信息泄露事件中,有一部分原
因是因为信息主体自身的疏忽。我们应当清楚的认识到,在算法社会,可能自己的一条朋友圈,
一则微博动态,一个位置定位,都有可能使我们的个人信息被泄露,被收集,被流传。因此,
提高公民对个人信息保护的意识,减少因个人疏忽导致的信息泄露至关重要。而政府应当发挥
其带头作用,利用算法社会中大众传媒的力量,让公民尽可能多的了解算法社会个人信息可能
的泄露方式、信息泄露的危害性,明白个人信息的重要性。在发生个人信息侵权事件时,及时
寻求法律的救济,避免损失扩大。
五、结语
在我们面前有两种未来。一种是我们正在成就的未来,另一种是我们能够成就的未来。我
们正在成就的未来描述起来相对简单,算法、大数据、人工智能,我们将科技与生活紧密的结
合在一起,生产出许多智能产品。企业不用再将相同的内容重复发给多个人,而是可以按照他
们的需求,精确的向将用户投放定制内容。我们可以轻松地获取我们想要的信息,但我们同时
也在被各种信息充斥。第二种未来,是我们能够成就的未来。这种未来是未知未来,因为我们
几十年前无法想到的事情现在发生了,所以我们的社会能够发展到什么程度,任何人都不敢对
其作确定的描述。但可以确定的是,人一直是社会的主体,法律应当保障人的合法权益。在这
个被信息充斥的算法社会,国家应适应社会需要,及时完善法律以更好地保障公民的权利;社
会公众应当发挥其监督功能,营造更好的社会环境;信息主体要充分了解这个社会的特点,多
利用信息为自己服务,避免让信息侵害自己,在分享生活点滴的同时,也要学会保护个人信息,
避免成为算法社会中的“透明人”。
参考文献:
[1]左亦鲁.算法与言论———美国的理论与实践[J].环球法律评论,2018,(5).
[2][3][6](美)劳伦斯·莱斯格.思想的未来[M].北京:中信出版社,2004.
[4]陈敏,肖瀚.省高院召开量刑规范化智能辅助系统评审座谈会[N].海南法制时报,2017-
12-08.
[5]余建华,孟焕良.浙江高院联手阿里巴巴打造“智慧法院”[N].人民法院报,2015-11-
25.
[7]孙铁文.手机APP收集用户个人敏感信息规制分析——由“ZAO”软件隐私风波引发的思
考[J].现代商贸工业,2019,(32).
[8]丁西泠.大数据时代个人信息法律保护的路径思考[J].征信与法,2019,(11).
[9]崔靖梓.算法歧视挑战下平等权的危机与应对[J].法律科学,2019,(3).
[10]吴汉东.人工智能时代的冷思考[J].中国报业,2018,(3).
Problems and Countermeasures of Personal Information Protection in Algorithmic
Society
WANG Zhi-hui
(Xiangtan University,Xiangtan 411105,China)
Abstract:The large-scale application of the algorithm brings unprecedented
convenience to human life, intelligent products, intelligent search and
navigation, personalized custom services, accurate recommendations, and so on.
While enjoying such an efficient and convenient society, we can't help worrying
about issues such as APP eavesdropping, information leakage, and algorithm
discrimination. The provisions on the protection of personal information under the
traditional legal system have been unable to meet the new needs brought by social
changes. Only by perfecting the legal provisions and establishing a dual-monitoring
model of "algorithms + specialized agencies", while strengthening citizens'
protection of personal information, can we better adapt to new social changes.
Key words:algorithm society; personal information; algorithm discrimination
2024年5月27日发(作者:米高澹)
算法社会下个人信息保护的难题
作者:王智慧
来源:《天水行政学院学报》 2020年第2期
[收稿日期] 2020-01-03
[作者简介] 王智慧(1995—),女,河南商丘人,湘潭大学硕士研究生,研究方向为法学
理论。
王智慧
(湘潭大学,湖南 湘潭 411105)
[摘要] 算法的大规模应用给人类生活带了前所未有的便捷,智能产品、智能搜索和导航、
个性化的定制服务、精确的推荐等等。我们在享受如此高效便捷的同时,不免担心随之而来的
诸如APP窃听、信息泄露、算法歧视等问题。传统法律制度下关于个人信息保护之规定已经不
能满足社会变化所带来的新的需要。完善法律规定,建立“算法+专门机构”的双重监督模式,
同时加强公民个人信息保护意识,才能更好地适应社会新变化。
[关键词] 算法社会;信息保护;算法歧视
[中图分类号] DF624 [文献标识码] A [文章编号] 1009-6566(2020)02-0093-05
一、引言
“我们正生活在一个算法社会(algorithmic society)”[1],算法应用于人类生活的各
个领域。智能搜索引擎、智能电器、智能APP、智慧法院,从日常生活到法律决策,算法都扮
演着重要的角色。
如在消费领域,在算法出现之前,消费者看到的是千篇一律的广告宣传和优惠,但是算法
的出现改变了这一现象,通过算法分析消费者的历史浏览页面、搜索内容、购买记录、金额等
等,从而有针对性地向不同的消费者推荐不同的商品和服务。消费者下一步的购买或者搜索行
为又会给算法以新的分析数据,这种定制化推荐使得算法越来越了解每一位消费者。经过三年
的使用,亚马逊的数据开采引擎已对我的信息做了忠实的记录,并能向我推荐我应该买的东西。
它会向我发广告,但这些广告(与我在现实空间所见99%的广告都不同)实际上是专门为我定
制的,它们说的是我想听的东西。”[2]
算法在消费领域的应用极大地节约了宣传的成本,算法应用之前,我们无法确切了解每个
消费者的需求,但现在我们可以清晰地向不同用户投放其所需要的内容。使得消费者免于在不
情愿的事情上浪费时间[3]。
算法的重要作用还可以体现在法律领域。我国部分城市的法院已经开始运用人工智能算法
辅助办案,“如海南法院使用的智能量刑系统,使用该系统后,法官办理量刑规范化案件、制
作裁判文书、制作程序性法律文书的时间大大缩短,减轻了法官量刑办案的工作量。”[4]“浙
江省高级人民法院与阿里巴巴达成战略合作,法院利用算法和阿里各大平台的数据,获取涉案
当事人的身份信息、联系电话和地址、消费情况等,解决了因当事人填写虚假地址而无法送达
文书的难题,而在法院的不良记录也会限制当时的网上消费,从而推动涉案当事人尽快执行判
决。”[5]
二、个人信息保护在算法社会面临的挑战
算法社会确实给我们带来了各种便利,我们可以随时随地了解来自世界各地的消息,享受
各种个性化推荐和服务。但是也有人开始质疑这种广泛的应用。“一些人害怕这种永久的监控
系统会使我们失去隐私,另一些人担心这种要什么给什么的系统会使个体之间日渐疏远。”[6]
但算法提供个性化的商品和服务,只是其根据个人的历史记录和搜索行为进行分析,并给予每
个人定制化安排,这是算法运用的初级阶段。更令人担忧的是,为了使预测的结果更加准确、
能够得到更多的支持和采纳,算法可能会转向对人的行为进行控制。如“剑桥分析事件”就是
一个典型的例子。“剑桥分析”公司利用5000万Facebook用户的信息,操纵美国大选及英国
脱欧公投。
所有这些算法的应用都基于我们的个人信息,个人信息可被共享、被泄露、被交易。在算
法社会里,收集个人信息似乎更加容易,我们的个人身份信息、搜索信息、购买信息、浏览记
录被算法所收集存储,除了给我们提供个性化的商品和服务外,这些信息是否也被用于控制我
们的行为或者其他不法用途呢?这个时候我们必须开始思考:个人信息安全在算法社会到底面
临什么样的挑战?
1.过度收集个人信息。2019年3月,一则名为美团、饿了么否认偷听的微博热搜引发了广
泛讨论。事情起源于2018年,一位读者于2018年11月的投诉引起了记者的注意,他怀疑外卖
APP在“偷听”自己说话。随后,《IT时报》记者耗时三个多月的时间,通过模拟用户使用场
景,对安卓手机、苹果手机、苹果平板电脑上的饿了么和美团外卖进行多轮测试。从测试情况
来看,在随后数分钟到数小时的时间里,出现相关推荐的概率高达60%-70%。对此,饿了么和
美团回应:不存在“偷听”!之后,记者更新了最新iOS版美团外卖、饿了么,它们都不再索
取麦克风权限,不过安卓版里的录音权限依然存在。相信很多人都有过类似的经历,刚说了想
吃什么,手机里就蹦出了它的推荐;刚说了要买什么,就出现了广告;刚谈论到某个明星,一
些APP上就推荐了他的故事。种种不可思议的现象,难道只是巧合吗?到底有多少APP在我们
不知道的情形下收集我们的信息?我们是否授权APP通过监听我们的日常对话来给我们推荐商
品和服务?我们授予了软件录音权限,仅仅是允许该软件语音输入功能的使用,并不希望该软
件私自后台运行该功能“偷听”自己讲话。
目前,大多数APP都存在过度收集信息的情形。许多APP的使用和获取信息是捆绑在一起
的。多数APP在使用时必须勾选同意获取定位权限、访问联系人、访问信息等相关权限的授权,
如果点击拒绝,APP就会自动退出,再次打开依旧需要进行选择。一部分APP,拒绝授权后,某
些功能将会限制使用。还有一部分APP拒绝授权不影响使用,但是之后每次打开都会弹出授权
页面。
“2018年11月中国消费者协会曾对10类共100款常用APP的隐私政策进行测评,结果显
示:在参与测评的APP中,有91款存在过度收集或使用个人信息的情况;59款未明确告知收
集个人信息的类型,且收集敏感信息时未明确告知用户信息的用途;42款对外提供个人信息时
不会单独告知并征得用户同意。2019年7月APP专项治理工作组通报了天天酷跑、探探等20
款APP,要求用户一次性同意开启多个收集个人信息权限的情况,如果用户不同意那么就无法
使用该APP的全部功能。”[7]至于这些信息是否被用于软件的运行,运营商能否保证信息主体
的信息安全,用户并不知情。
2.非法出售个人信息。算法社会个人信息的不当使用滋生了许多非法交易,例如淘宝诈骗,
现在有许多专门的淘宝诈骗团伙,他们首先收购淘宝客户信息,冒充客服与淘宝客户进行联系,
以商品有问题需要退款或者取消会员为由,诱导受害者在蚂蚁借呗等借贷平台上借钱,再把钱
打入伪造的商户平台以流入诈骗团伙支付宝账户。央视新闻此前曾披露,在互联网平台“转转”
上,10元可买5000多张人脸照片,在百度“快眼”贴吧上,也有人在售卖人脸数据,将信息
主体的姓名、身份证照片、银行卡和手机号等信息低价打包销售。经调查,这些信息并没有经
过当事人的授权允许。在算法社会,人们之间的交流、学习、娱乐大都转移到了网络之上,我
们的照片、联系方式、聊天记录、购买记录等信息也在网络上流传。这些信息被一些企业运用
算法聚合收集在一起之后,出售给有需要的商家,部分商家根据这些信息向消费者投放特定的
商品广告。而有些信息被用来注册软件,给当事人的日常生活带来困扰。“目前,网络交易平
台上存在专门收集、出售个人信息的企业,有些个人信息是通过在公开网站上收集获得,有些
则是利用技术手段非法抓取。”[8]
3.个人敏感信息的滥用。算法社会中的个人信息具有广泛性的特征,它不仅包含信息主体
的个人基本信息,还包括信息主体在算法社会一系列的活动记录,如网上交易记录、网上搜索
记录等。目前,我国法律并没有明确区分个人一般信息和个人敏感信息,仅对个人信息的含义
进行了规定。按照《信息安全技术个人信息安全规范》解释来说,个人敏感信息是指一旦泄露、
非法提供或滥用可能危害人身和财产安全,极易导致个人名誉、身心健康受到损害或歧视性待
遇等的个人信息。而在算法社会,个人敏感信息更加容易被泄露、利用、交易。我们所熟知的
算法歧视问题,一方面是由于算法制度本身的不透明性;另一方面,也是由于信息主体的个人
敏感信息被收集滥用。什么是算法歧视?我们都知道,算法相比于人类的判断,最重要的特征
就是批量化、程序化,算法判断全部依赖于输入的信息。我们对是否属于算法歧视的认定是否
掺杂了价值判断?有关于是否属于算法歧视主要有两种不同的声音:第一种主张算法歧视不存
在,这种主张主要是从技术论出发,认为技术是中立的,算法是一种自主学习和数据反馈的机
制,算法歧视问题是人类已有偏见的扩大;第二种主张从结果论出发,主张算法歧视存在。认
为已经产生了许多现实存在的歧视问题:①价格歧视:也即我们所熟知的“大数据杀熟”。如
许多商业平台采用动态定价方案,针对不同消费者的消费水平显示出的价格是不同的,这种价
格歧视行为被称作“大数据杀熟”[9]。②人格歧视:如谷歌推出的机器人误把两名黑人标注为
“大猩猩”,微软公司推出的聊天机器人,被认为是集反犹太人、性别歧视、种族歧视于一身
的“不良少女”[10]。
笔者认同第二种观点,商家通过收集消费者的个人敏感信息,采用动态定价方案,使消费
者的财产受到了损害,也侵害了消费者的平等权。而一些软件通过算法分析信息主体的肖像、
聊天记录,将黑人标注为“大猩猩”,侵害了其名誉和身心健康。如果法律禁止企业或网络运
营商收集这些个人敏感信息,或者禁止其不当使用个人敏感信息,这些歧视问题将不会出现。
三、现行法律制度对个人信息保护的情况及困境
(一)我国法律对个人信息保护的现状
目前,我国关于个人信息保护还没有专门的立法,有关其规定散见在相关部门法之中。但
部门法规定并不是很齐全,大多数法律只规定了原则性内容,如《民法总则》第一百一十一条
主要规定了自然人的个人信息受到法律的保护,他人应当依法获取并保障信息安全,不得非法
利用个人信息;《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》主要定义了
个人信息的含义以及规定了提供个人信息违反法需要承担的法律责任;《中华人民共和国网络
安全法》第四十一、四十二、四十三、四十四、四十五条主要规定了网络运营者收集、使用个
人信息需要遵循的原则,网络运营商对个人信息负有的义务;《全国人民代表大会常务委员会
关于加强网络信息保护的决定》第五条、第八条主要规定了网络服务提供者对其用户的信息负
有相关的管理义务;《刑法修正案九》则对网络服务提供者的个人信息泄露情形提出量刑标准。
这些法律中有关个人信息具体分类、个人信息收集利用具体标准、信息主体的权利等规定并不
是很详细。
而全国信息安全标准化技术委员会于2017年发布、2018年5月1日实施的《信息安全技
术个人信息安全规范》,对于一些具体概念、行为的分类定义更加清晰,如个人信息和个人敏
感信息;个人信息主体和个人信息控制者;收集、删除、公开披露等;还对一些专有名词如匿
名化、去标识化、明示同意等含义进行界定。虽然这个文件对于企业制定信息保护政策,对于
行政机关执法认定具有参考作用,但是由于文件缺乏强制力,在发生纠纷时,信息主体或企业
无法依据此文件维护自身权益。
除此之外,2019年中央网信办、工信部、公安部、市场监管总局等四部门联合发布《APP
违法违规收集使用个人信息行为认定方法(征求意见稿)》,其中详细规定了APP违法违规收
集个人信息的7大情形,以及每种情形所包含的具体内容。2019年国家互联网信息办公室发布
《数据安全管理办法(征求意见稿)》,对个人信息的收集使用处理规则;个人敏感信息的收
集使用;网络运营商利用算法定向推送、发布信息等行为做了相对详细的规定。但这两个文件
目前还只是征求意见稿,并没有实施。
(二)困境
总体来说我国现有的个人信息保护模式可以总结为:“概括授权+例外”。对于信息的收
集需要经过信息主体的同意,法律规定的除外。但是这种概括授权模式无法为个人信息提供较
好的保护。目前,我国个人信息保护的困境主要体现在以下几个方面:
1.算法的不透明性加大了个人信息保护的难度。有学者总结了算法中三种形式的“不透明
性”,第一种是“故意不透明”,即因商业秘密或者国家秘密而产生的不透明性;第二种是
“文义上的不透明”,是因技术了解程度不同而产生的不透明性;第三种是“固有的不透明”,
由算法本身的复杂所带来的不透明性。
算法的不透明导致我们无法具体了解到算法运作的方式方法。这也就意味着我们不能清楚
地知道算法在何时收集了我们的信息,将我们的信息用作何处。算法的这一特性不仅使得信息
主体无法真实的了解其信息的运用,在发生侵权行为时,信息主体收集证据也较为困难。
2.用户没有主动权。算法社会下,个人信息的价值越来越高。而网络运营商和信息主体地
位极其不平等,运营商掌握众多的资源,导致信息主体没有主动权。为了收集用户更多的个人
信息使其利益最大化,许多运营商将非必要的授权与软件运行捆绑在一起。而信息主体为了获
取必要的资源,大多数情形下都是被迫同意,无法依据自己的想法进行选择。而且对于运营商
所告知的信息使用范围,信息主体亦无法得知其使用的真实情况,从而导致信息主体的权益得
不到保障。
3.企业不正当竞争。目前,有很多企业单纯的追求商业利益,而他们之间的不正当竞争最
终会使信息主体的权益受到损害。也有越来越多的犯罪团伙,专门运用非法手段获取信息,之
后用于犯罪活动。还有一些企业专门收集信息进行出售。这些情形都较大的侵犯了信息主体的
权益。然而在算法社会,信息收集、交换、流转更加容易,也更加隐蔽,所以给相关政府部门
的执法活动造成了很大的障碍。
4.个人信息分类不明确。我国法律并未明确规定个人一般信息和个人敏感信息的具体内容,
对一般信息和敏感信息的收集使用授权标准并未进行区分。因此,企业和运营商在收集信息时,
往往要求信息主体打包授权。但个人一般信息与个人敏感信息不能用同样的制度来规制,敏感
信息的授权应当有更加严格的规定。
四、算法社会个人信息保护路径思考
算法社会,个人信息对于信息主体、企业、政府等都有重要的作用。如何平衡各方利益,
运用法律规制个人信息的收集使用,保护信息主体的权益,促进多方主体利益的共同发展,是
目前急需思考解决的问题。算法社会下,个人信息的收集、传播都有了新的方式和特点,我们
需要转变传统个人信息保护思路,结合算法社会个人信息所遇到的新挑战,探索内外共同规制
的保护路径,以期更好地促进社会整体发展。
1.完善相关法律规定。我国现行法律体系对个人信息的保护更多的是统一的原则性标准和
处罚,缺乏根据具体行为的类型、性质所做的具体区分。而对个人信息规定更为详细的《APP
违法违规收集使用个人信息行为认定方法(征求意见稿)》和《数据安全管理办法(征求意见
稿)》还未开始实施。而且二者的法律位阶较低,对于个人信息保护所起作用大小我们还无法
预测。
随着社会科学技术的不断发展进步,个人信息侵权形式也有了较大的变化,信息主体的个
人信息权益保护也受到了较大的挑战。而我国一直缺乏一部有关于个人信息的综合性保护法律,
《个人信息法》也尚未出台。但出于加强对公民个人信息保护、遏制算法社会个人信息侵权大
规模发生的社会需要,我们可以根据目前的实践经验,制定一部专门保护个人信息的法律,而
这部有针对性的法律至少应该包含以下几个方面的内容:
(1)完善个人信息的分类。个人一般信息与个人敏感信息应该做明确的区分,相关主体可
以收集运用个人信息的范围也要做相应限制,这一点我们可以借鉴欧盟的相关规定。欧盟《通
用数据保护条例》第九条规定:对揭示种族或民族出身,政治观点、宗教或哲学信仰,工会成
员的个人数据,以及以唯一识别自然人为目的的基因数据、生物特征数据,健康、自然人的性
生活或性取向的数据的处理应当被禁止。但是如果一些敏感信息的收集是必须的,企业或运营
商可以明确征得信息主体同意后,向相关部门报备。
(2)强化明示同意原则。信息主体同意企业或网络运营商对其个人信息的收集和利用,是
建立在其充分了解该运营商所提供的隐私服务和说明条款。但现实中企业或网络运营商往往将
隐私条款说明放在相对隐蔽的位置,或者将一些基本情况说明和非常重要的个人信息运用提示
说明放在一起。对此,应该严格要求企业或运营商在收集使用信息时,将一些重要的条款以清
晰明了、更加突出的方式展示给信息主体。也可以用一种强制阅读的方式,使信息主体了解相
关条款。
(3)必要性原则。企业或网络运营商收集运用个人信息应遵循合法合理且必要的原则。目
前,有很多主体为了商业利益,收集了许多和其产品或服务不相关的信息。对此,必须严格规
范相关主体收集个人信息的行为。在算法社会,企业或运营商运用由便易途径收集到的信息,
可以为其带来更高的价值回报。但是出于对信息主体个人信息权益的保护,以及个人信息一旦
被滥用可能产生的风险和危害,企业或网络运营商不得不加限制的对个人信息加以收集。
2.建立内外双重监督机制。我们可以运用“算法+专门机关”的监督模式,从事前预防到
事中矫正再到事后救济全方位监督。算法在某些方面的运用确实有着人类无法比拟的效果,如
速度快、效率高、相对客观等。我们可以合理的利用算法的这一优点来监督信息的收集利用行
为。除此之外,可以设立专门的机构,一方面对企业或网络运营商的收集利用行为进行双重监
督,另一方面可以对算法的运行进行监管。在企业或网络运营商收集信息之前,运用算法记录
企业收集信息的范围和用途,然后分析企业的收集行为是否违反法律法规。之后,运用算法来
监督企业或运营商使用信息的全过程,一旦发现违法违规行为,可以事中介入,及时制止和矫
正企业或运营商的不当行为。为了更好的保障信息主体的知情权,可以要求企业或运营商定期
出具报告分析,方便信息主体及时了解信息运用动态。也方便专门机构的核查和社会公众的监
督。
3.加强公民个人信息保护和维权意识。算法社会中有太多设备、软件在“监视”着我们的
一举一动,我们每个人的行为都被详细的记录着。目前,大量的信息泄露事件中,有一部分原
因是因为信息主体自身的疏忽。我们应当清楚的认识到,在算法社会,可能自己的一条朋友圈,
一则微博动态,一个位置定位,都有可能使我们的个人信息被泄露,被收集,被流传。因此,
提高公民对个人信息保护的意识,减少因个人疏忽导致的信息泄露至关重要。而政府应当发挥
其带头作用,利用算法社会中大众传媒的力量,让公民尽可能多的了解算法社会个人信息可能
的泄露方式、信息泄露的危害性,明白个人信息的重要性。在发生个人信息侵权事件时,及时
寻求法律的救济,避免损失扩大。
五、结语
在我们面前有两种未来。一种是我们正在成就的未来,另一种是我们能够成就的未来。我
们正在成就的未来描述起来相对简单,算法、大数据、人工智能,我们将科技与生活紧密的结
合在一起,生产出许多智能产品。企业不用再将相同的内容重复发给多个人,而是可以按照他
们的需求,精确的向将用户投放定制内容。我们可以轻松地获取我们想要的信息,但我们同时
也在被各种信息充斥。第二种未来,是我们能够成就的未来。这种未来是未知未来,因为我们
几十年前无法想到的事情现在发生了,所以我们的社会能够发展到什么程度,任何人都不敢对
其作确定的描述。但可以确定的是,人一直是社会的主体,法律应当保障人的合法权益。在这
个被信息充斥的算法社会,国家应适应社会需要,及时完善法律以更好地保障公民的权利;社
会公众应当发挥其监督功能,营造更好的社会环境;信息主体要充分了解这个社会的特点,多
利用信息为自己服务,避免让信息侵害自己,在分享生活点滴的同时,也要学会保护个人信息,
避免成为算法社会中的“透明人”。
参考文献:
[1]左亦鲁.算法与言论———美国的理论与实践[J].环球法律评论,2018,(5).
[2][3][6](美)劳伦斯·莱斯格.思想的未来[M].北京:中信出版社,2004.
[4]陈敏,肖瀚.省高院召开量刑规范化智能辅助系统评审座谈会[N].海南法制时报,2017-
12-08.
[5]余建华,孟焕良.浙江高院联手阿里巴巴打造“智慧法院”[N].人民法院报,2015-11-
25.
[7]孙铁文.手机APP收集用户个人敏感信息规制分析——由“ZAO”软件隐私风波引发的思
考[J].现代商贸工业,2019,(32).
[8]丁西泠.大数据时代个人信息法律保护的路径思考[J].征信与法,2019,(11).
[9]崔靖梓.算法歧视挑战下平等权的危机与应对[J].法律科学,2019,(3).
[10]吴汉东.人工智能时代的冷思考[J].中国报业,2018,(3).
Problems and Countermeasures of Personal Information Protection in Algorithmic
Society
WANG Zhi-hui
(Xiangtan University,Xiangtan 411105,China)
Abstract:The large-scale application of the algorithm brings unprecedented
convenience to human life, intelligent products, intelligent search and
navigation, personalized custom services, accurate recommendations, and so on.
While enjoying such an efficient and convenient society, we can't help worrying
about issues such as APP eavesdropping, information leakage, and algorithm
discrimination. The provisions on the protection of personal information under the
traditional legal system have been unable to meet the new needs brought by social
changes. Only by perfecting the legal provisions and establishing a dual-monitoring
model of "algorithms + specialized agencies", while strengthening citizens'
protection of personal information, can we better adapt to new social changes.
Key words:algorithm society; personal information; algorithm discrimination