马长山|算法治理的正义尺度(5)
2024-06-15 来源:旧番剧
数字人权原则。在数字时代,个人信息已经全方位覆盖了从摇篮到坟墓的全部私人生活,“直至在计算机数据库中形成一个‘人’。”因此,在日常生活中,每个人都既是自然人也是数字人;而在数字政府的制度框架下,人们则是数字公民。其中,无论商业交易中的算法还是自动化行政中的算法,都有产生数字鸿沟、算法歧视、算法操控的可能,这就会给人们在数字社会的生存发展带来严重障碍,从而出现数字人权问题。算法技术应用应坚持以人为本,以提高人类的数字生活能力和生活质量为标准,而不能异化为限制人、操控人的自动手段。联合国教科文组织推出的《人工智能伦理问题建议书》就明确指出,人工智能这类技术极具侵入性,它们可能会侵犯人权和基本自由,且被广泛使用。因此,应明确禁止使用人工智能系统进行社会评分和大规模监控,个体也应该有权访问甚至删除其个人数据记录,各国应采取改善数据保护和保障个体对自身数据的了解和控制权的行动。
因此,维护和保障数字人权,就成为算法治理不可或缺的重要准则。
02
算法治理的正义领域
以往的正义观念和理论,基本上都是围绕身份、地位、财富、机会和条件的分配,以自由、平等和权利的形态来展开的。然而进入数字时代后,万事万物都会通过网络化、数字化、智能化方式加以表达、链接、交互和流转,数据信息与建模算法就担负起重要的关系建构和秩序塑造的功能。此时,公平正义的领域和范围就不再局限于物理方式的资源分配模式与机制,而是形成了数字方式的“分享/控制”模式与机制。它所产生的一个严重后果是,相当一部分自由、平等、权利、公正的内涵已被数字化掏空变现,只剩“外壳”尚在。例如,外卖骑手的劳动权利一直存在,但“逐低竞争”的算法派单机制却让他们形成了难以自控的严重“内卷”;商业交易中的合同权利依然如故,但大数据杀熟、算法歧视却悄然“釜底抽薪”;同样,老年人的各种权利都未改变,但数字鸿沟却使他们失去了实现自己生活权利的能力。
这表明,算法治理的重心是应对数字控制、实现数字正义。这里的数字控制,并不是以实物流转方式和人为手段来直接分配资源,而是通过数据信息处理和算法控制来隐性的匹配资源与调动行为,于是就披上了技术的客观外衣,建立了自动实现的执行机制。因此,抑制数字控制也就成为数字正义的主要领域。