首页 >> 社科基金 >> 基金管理 >> 成果发布
算法歧视法律规制的路径探析
2020年11月11日 09:33 来源:中国社会科学网-中国社会科学报 作者:邹举 字号
2020年11月11日 09:33
来源:中国社会科学网-中国社会科学报 作者:邹举

内容摘要:

关键词:

作者简介:

  在人工智能背景下,算法就像一把双刃剑,人们的身份和行为数据被广泛收集,其健康状况、需求偏好、消费能力、发展潜力等特征皆被算法使用者掌控,算法通过精确识别各类社会主体的身份,区别化地将人们束缚在自身的数据茧房之中,在为人们生活带来便利的同时,也加剧了原先社会中存在的各类鸿沟。

  算法歧视的形成原因主要来自两方面:一是人类偏见的有意识注入。算法终究是价值驱动的产物,虽然机器决策被描述为自动化,但决策对象的哪些数据特征会影响输出结果完全取决于人的选择,此时根植于人类社会的价值倾向和偏见很容易被带入系统的设计之中。除了设计阶段的偏见输入,在系统学习过程中,如受到歧视性案例的污染,偏见也可能会固定下来,从而形成偏见化的循环反馈体系。再者,即使算法系统提供的结果是客观的,也有可能会为后续的人类决策提供实施歧视的便利和掩护,比如利用大数据“杀熟”就是一例。

  二是技术歧视的无意识生成。在数据输入时,如果训练数据是从被偏见投射的人群样本中获得的,或者收集的数据未能准确反映实际人口中的情况,则输出结果很容易出现偏差。在机器学习阶段,从数据到“知识”的生成是一个根据相关性原理进行机器转译、分析的过程,这其中缺乏契合具体情境和人类直觉的分析。

  相比传统歧视,以上两种算法歧视皆具有更强的隐蔽性,形成了新的治理挑战。这一方面源于算法决策的内在复杂性,数据的输入、输出虽然可见,但机器学习的逻辑和机理已在实质上超越了一般人的理解水平。另一方面,在专业技术和算法黑箱的掩护下,人类偏见以及暗藏其中的政治、经济企图将变得更难为人所察觉和证明。此外,知识产权或商业秘密条款的保护,对法律介入算法内部审查的努力也造成了一定的阻碍。随着人工智能的发展,技术的黑箱效应亦会日益严重,若不能有相应的规制措施,算法歧视引发的权力失衡和社会风险将不断加剧。

  针对算法歧视,不同国家基于各自的治理传统和法律基础,规制路径有所不同。欧盟国家主要选择的是个人赋权的规制路径。具体来说,由于算法歧视建立在数据的收集、处理基础之上,欧盟国家将规制视野从传统的反歧视法扩展到数据保护法,试图通过新型数据权利的赋予,使个人获得对自动化决策施加影响的能力。比如,GDPR广泛赋予数据主体以访问权、删除权、数据可携权。其第22条还特别规定,数据主体有权不受某些具有法律影响或类似重大影响的完全自动化决策的制约;在接受决策的情况下,数据主体可以对算法进行人工干涉,以表达其观点和异议。欧盟模式重在以个人权利抑制算法权力的扩张。但是,由于算法歧视的隐蔽性,数据主体识别和证明歧视性的实际能力或许很难与该制度设计相匹配,尤其是在依靠个体诉讼来执行法律的情况下;并且算法歧视有时会超出个人数据保护法的范围,因为某些基于公共数据的智能分析也可能产生歧视。

  相对于权利配置的“公平”,美国立法者认为寻求算法结果的“正义”更为可行。遵循这一思路,美国选择了以外部问责为核心的规制路径,即成立专业性的行政机构或监管主体,并赋予算法控制者报告算法合理性与避害措施的义务,前者对后者具有审查的权力。该模式要求算法具备一定的可解释性和可审查性,在强化算法控制者义务的前提下,由外部规制者促使其针对问题做出内部式的、自我规制性质的回应,从而在一定程度上降低算法结果的风险。当前,纽约市(2017)、华盛顿州(2019)出台的问责法案和相关的联邦法院判例(2016)专门针对公共事业领域的算法决策,而尚处于国会辩论程序中的《算法问责法》则试图将问责的范围拓展至大型的私人机构。这种率先在公共事业范围内建立算法问责制的做法是符合美国市场化传统的,但能否广泛推及至私人机构还不得而知,同时技术透明度的挑战和知识产权法上的障碍仍然有待解决。

  总体上,欧美国家对算法歧视规制手段的选择有二:一是创建公平的治理环境,增加公众对数据和算法的控制力;二是通过外部监管和内部合作,加强算法技术导向正义的制度激励。两者在规制效能上究竟如何,仍有待观察,但都体现了从实害追责向风险防范的转变。

  我国宪法规定了法律面前人人平等的基本原则,对于算法歧视这一新生问题的法律规定也是从2019年才开始出现,比如《电子商务法》要求经营者向消费者提供不针对其个人特征的推荐选项。从进一步完善的角度看,有三个方面的措施可供选择。

  第一,寻求代码设计和数据使用上的公平性。代码是实现算法目标的语言工具,也具有规制算法的技术权能。这要求技术专家将公平原则内化于代码设计之中,尤其在数据筛选、清洗和特征选择、类别标注等环节上注意法律伦理和技术可能性的结合。数据使用上的公平性则体现为对数据主体的赋权,同时对算法控制者在数据收集最小化和使用民主化方面提出要求。正如张新宝教授在《个人信息保护法(专家建议稿)》中提出的,应对信息业者对个人敏感信息的收集和分析做出限制;当其就授信、承保、提供就业机会等事项做出算法决策时应向个人说明并征得同意,同时赋予个人介入和退出的权利。

  第二,合理提高算法设计和运行中的透明性。由于技术和法律原因,要求算法完全透明并不现实,因此算法透明化需要限定在一定程度和范围之内,以取得创新与监管的合理平衡。通常,算法决策目标、设计和基本运行原理的解释应优先于其内部具体结构的解释。根据行业或应用领域的不同,透明度的要求也应有所差异,具体可以参考架构复杂程度、歧视发生概率、结果影响范围、侵权严重程度等指标。透明性原则的推进还依赖于建立专门且专业的监管机构,对从业者进行精细化、场景化的审查,并将事前与事后、定期与不定期审查等多种方式相结合。

  第三,强化算法歧视损害结果的可责性。算法歧视所导致的损害责任应由开发或运用该系统的自然人或法人承担,并且相关人员的信息应对外公开。这既是关于法律责任的声明,同时也为公众享受介入、退出权利和及时弥补损害结果提供了便利途径。而损害后果一旦发生,由于算法歧视的隐秘性特征,个体往往不易察觉,且难以举证。对此,有学者指出,可引入集体诉讼制度,以缓解受害者与算法运营者之间的信息、资源不对称,并节约诉讼成本、提高诉讼效率。关于举证责任的分配, GDPR有关“缺陷产品责任”举证责任倒置的规定具有启发性。这一举措既弥补了诉讼双方在知识、技术上的地位落差,体现了公平性;同时有利于算法运营者提高算法透明度,并对潜在的歧视危害进行评估和减轻。在归责标准上,或可实行无过错审查,仅对差异性影响和算法决策的必要性、可替代性三个核心问题进行认定。

  著名科技史学家克兰兹伯格(Kranzberg)认为,技术本身无所谓好坏,也不是中立的,它在不同的应用情形中可能会产生不同的结果。作为引领未来的战略性新兴技术,人工智能、算法需要积极向善,法律也必须持续跟进,才能避免算法歧视带来的不利后果,使人工智能真正成为促进人类平等发展的积极力量。

 

  (本文系国家社科基金一般项目“全球互联网治理背景下主权原则的理论调适与实践路径研究”(18BXW115)阶段性成果)

  (作者单位:南京师范大学新闻与传播学院)

作者简介

姓名:邹举 工作单位:

转载请注明来源:中国社会科学网 (责编:齐泽垚)
W020180116412817190956.jpg

回到频道首页
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们