信息保护立法要给“算法”划红线
木须虫
算法虽然不是坏东西,但其本身也利弊各半,况且还容易被劫持和利用,也必然要求其应用谨守边界,能用而非滥用。
针对人们担忧的个性化推荐问题,个人信息保护法(草案)三审稿明确自动化决策应当遵守个人信息处理的一般规则,包括应遵循合法、正当、必要和诚信原则,目的明确和最小化处理原则,公开透明原则,信息质量原则,责任原则等;自动化决策,包括用户画像、算法推荐等,应当在充分告知个人信息处理相关事项的前提下取得个人同意,不得以个人不同意为由拒绝提供产品或者服务。
个性化推荐在网络广泛应用,如果你经常浏览几个固定类别的信息,那么平台更新推荐的都将集中在这些类别;而在电商平台,如果用户经常购买一些类别的商品,如书籍、书法用品等,那么这些类别的商品会是高频推荐的对象。
诸如此类,这些推荐是基于用户消费习惯信息数据算法产生的信息推送结果,应该说与用户的个体要求有较高的重合度。当这些数据中包括了个人消费能力判断时,不同用户搜索同一商品,出现推荐商品价格方面的差异,并不会令人意外。
客观来说,算法是一柄双刃剑,有利的一面是提高信息推荐与用户需求的匹配度,提高用户搜索的效率,帮助用户节约时间;不利的一面则会加剧用户“信息茧房”的困局,进而失去信息选择的能力。如购物,买的东西越贵、喜好倾向越固定,那么获得推荐并购买不符合喜好、突破风格习惯的商品就会越难,无形中给自身的消费思维上了道枷锁。
更关键的是,当机器算法有人为计算的加持,算法推荐的个性化便很可能变成被个性化,“信息蚕房”则可能变成薅羊毛的暗箱,如同样的商品,可以以不同的价格策略来匹配不同人群的信息推荐,便不可避免地出现大数据杀熟。
可见,算法虽然不是坏东西,但其本身也利弊各半,况且还容易被劫持和利用,也必然要求其应用谨守边界,能用而非滥用。个性化是用户选择的结果,真正的个性化推荐必须保证用户选择的自由,而非强制。因此,必须首先赋予用户对个性化推荐功能用或不用的权利,禁止强制使用,由平台替用户做主。其次,个性推荐商品不能与用户消费能力挂钩,使得消费者丧失对商品充分的知情权和选择权。
此次个人信息保护法(草案)相关规定,对这些作了进一步的明确,旨在给个性化推荐的应用划出清晰的红线,进一步织密大数据时代个人权利的保护网。
当然,防止个性化推荐损害公平,在完善立法的同时,更需要加强监管。如针对个性化推荐,应当督促平台落实标识提示和“一键关闭”功能,同时,针对个性化推荐可能发生的价格捆绑,明确将其纳入到大数据杀熟行为内进行管理和监督。