文丨郭喨(浙江大学科技与法律研究中心研究员)
个性化与算法歧视
彰显个性已经成为这个时代心照不宣的主题,如果年轻人没有一点“个性化”展示,在流行文化看来简直就不像“年轻人”了;而如火如荼的人工智能算法则在帮助使用者朝着“个性化”的道路上走得更远,比如所谓的千人千屏、个性化信息流和定制广告。
然而,智能算法的“个性化”与“歧视”是一种深层次的哲学矛盾。因为在某种程度上,任何分类本身都可以被合理解读为一种歧视;同理,“个性化”本身就可以是一种歧视性行为,这是难以抗拒的客观规律。比如,当根据距离远近与物流发达程度,将商品交易划分为“包邮区”与“非包邮区”时,江浙沪与新疆显然被区别对待了;尽管这一区别对待有着充足的物流成本之依据。当根据第23对染色体是XY还是XX将人类区分为“男性”与“女性”时,在男权主导的社会有时会导致对女性某些合法利益的侵害,而在某某140字“舆论”空间则经常聚集起对男性的仇视言论。罪在XX/XY的划分吗?责任更应该归于特定的社会环境、舆论环境。当根据成熟期果肉细胞的不溶性果胶及纤维素的含量多少,将苹果分为我喜欢的“面苹果”和不太喜欢的“脆苹果”时,“黄元帅”与“红富士”在市场上就有了不同的身价。“红富士”与“黄元帅”,遭遇了“价格歧视”吗?
任何形式的分类都提供了最低限度的歧视之可能性。人工智能算法的“个性化”安排——本质就是不断的分类——更是如此。
特别是,由于算法对“身份”的敏感性,人工智能算法可能形成歧视特定对象的“身份法则”而不自知。一个著名的案例是:美国法院广泛使用的犯罪预测系统COMPAS存在对黑人的系统性歧视。对服刑人员进行“出狱后再犯风险评估”时,COMPAS错误地认定,黑人比白人有着更高的再犯罪风险,因此会做出更多的不利于黑人的评估预测。尽管COMPAS对黑人、白人再次犯罪并被捕的预测准确率为61%,但39%的部分“错误”的方式不同:黑人被告被评为高风险、但后来却不再犯的概率是白人被告的2倍,而白人被告被评为低分险、后来又被指控重新犯罪的概率是黑人被告的2倍。因而,这一“犯罪人风险行为评估”工具COMPAS甚至是赤裸裸种族歧视(racially biased)的。实际上,COMPAS甚至也是严重性别歧视的:“风险评分为5的女性再犯概率与风险评分为3分的男性差不多”。
然而令人惊奇的是,由于“人工智能”光环的加持,2001年纽约州开始使用这一系统,直到2016年才被科技记者茱莉娅·安格温指出。这种“身份敏感”实际上是难以根除的,原因在于,它是内在于“分类”本身的。克莱因博格指出,“在对几率不同的两个组进行风险评估时,结果就会是这样。”智能系统的再犯罪预测中,假阳性(“高风险”的被评估者没有如预期那样再犯罪)与假阴性(“低风险”的被评估者没有如预期那样不再犯罪)的平衡是困难的——几乎是不可能的,除非不同群体的再犯率相同。执行者会为了效率而放弃公平——尤其是被歧视对待的群体自身也惑而不知或知而不言时,这在全世界都不是什么秘密。然而,此类对特定群体的系统性偏见——歧视,却是任何一个人类文明社会都不能容忍的。
“人工智能喂屎”
事实上,算法对公共利益的伤害是轻易且普遍的。“算法对平等权、自由权等基本权利的侵害其实针对的都不是特定的某个人,而是不特定的多数人。”在公共交通和出行领域,与“个性化推荐”相关的杀熟曾一度引起人们的广泛担忧;其实更值得忧虑的是娱乐领域,例如,基于个性化推荐算法的短视频平台,经常容易让用户高度沉迷,对其正常生活的平衡、时间的掌控以及认知世界的能力都会造成不同程度的损害,比如“视频成瘾”,导致其困于“信息茧房”(Information Cocoons)难以逃离。
一个值得警惕的社会现象是,“人工智能喂屎”,或者用更文雅的说法,“人工智能投毒”。人的身体健康需要丰富、均衡的物质营养,比如人每天需要摄取谷薯类食物200~300g、蔬菜300g、水果200~350g、畜禽鱼蛋类食物120~200g、1个鸡蛋(约50g),以及奶类、大豆和坚果,油、盐、脂肪、足量的水,还应适当运动(《中国居民膳食指南(2022)》)。如果过于挑食,只吃肉不吃菜,就可能缺乏维生素与纤维素不利于健康,只吃菜不吃肉也会缺乏不少人体必需的维生素,油盐过量容易“三高”,等等。如果孩子挑食,负责任的父母应当进行必要的干预,让孩子吃一些他可能不那么喜欢、但却长身体需要的食物。身体健康的核心要义在于均衡,精神健康同样如此,需要丰富、均衡的精神食粮。
但现实是,通过分析用户行为和偏好,人工智能系统为用户提供个性化的内容推荐,这种服务极易导致个体用户的过度沉迷。推荐系统基于用户的兴趣偏好,提供沉浸式的体验,使用户感到迅速(而浅薄)的即时满足,导致沉迷、信息茧房与社会分化极化——这有助于智能算法提供者相应产品的盈利。本应投喂的精神营养被劣质和重口味的精神垃圾替代了。人们沉迷其间,乐此不疲。尤其是缺乏辨识力的青少年,对这种投喂完全缺乏抵抗力。
智能技术这种“迎合偏食”而不是“纠正偏食”的做法,实际上已经带来了严重的后果,尤其是对本来就缺乏有效的外部监督与指导的、处于社会弱势阶层的家庭子女。人工智能“投其所好”的个性化,其风险就隐藏在我们的每一次的选择、每一下点击之中。每一个试图保持自由的人,都应当警惕这一问题,而不是尝试“以个人克服时代”。
法律也意识到了这一问题,《中华人民共和国电子商务法》第十八条作出了反算法歧视的规定,“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”所谓自然排名保障了消费者一个重要权利:知情权,因为“自然排名”是未经特别修饰或调整的搜索结果的自然呈现,是未经“利益污染”的,是消费者作出最有利于自身的消费决策的基础。然而事实却是,一方面“自然排名”并不自然,会受到载体设备、操作系统、地理位置等多方面因素的直接影响。“在实践中,对算法的划分并不是二元化的‘全有全无’的问题,即使是‘不针对其个人特征的选项’的自然结果也将或多或少地读取地理位置、终端设备或Cookies等标识信息,否则将无法提供有效的服务内容。”另一方面,电子商务公司并没有很好地遵守这一规定,因为较之“自然排名”,“个性化排名”会带来更多的商业机会和成交额、总利润。因此,此类“个性化算法”也需要进一步有效规制。如果商业共同体之间不能达成有效的自律协定以约束自身行为——这是不太现实的,在高强度的商业竞争中“谁自律谁吃亏”——那么,具有普遍约束力的法律的介入可能就是一种必需了。
一种可能的方案是,将智能算法对人类的影响限制在一个可接受的范围之内:确保“人工”影响和决定“智能”,而不是相反。
在学理上,“自由”具有不同的含义。我认为,位居“自由意义体系”最核心地位的,乃是一种“拒绝的自由”。这在法律对人类权利的保护上,就体现为“拒绝的权利”。“你们玩你们的,我们不干了。”这是面对人工智能歧视甚至强权,公民最底线的一点点尊严:我拒绝。只有确保和捍卫这样一种“最底线的自由”,才能真正实施其他一些治理算法的措施。通过法律架构与技术手段,保证人类智能对人工智能系统的整体领导与关键把控,是一个基本的方面。最重要的是,即便不能直接解决问题,人类起码也要保留“拒绝的权利”,这是人类在算法时代的底线尊严。
(文章仅代表作者观点。责编邮箱:yanguihua@jiemian.com。)
还没有评论,来说两句吧...