据统计,2020年我国数字经济总量已跃居世界第二①。规模巨大的数字经济催生了大量平台从业者。来自国家信息中心的数据显示,2020年我国共享经济服务提供者约为8 400万人,其中平台企业员工数高达631万②。为了使庞大的平台劳动者群体能够高效地完成工作任务,以“美团”“饿了么”“滴滴”等为代表的平台企业将算法技术用于劳动管理,由此形成了一种基于算法的新型管理模式。在此过程中,算法技术承担了制定和执行影响劳动决策的功能,国外学者又将其称作算法管理[1]。不可否认,算法管理能够帮助互联网平台企业提高劳动效率、改善客户服务、提高市场占有率。然而,在提升企业管理效率的同时,算法管理也给平台劳动者的权益保障问题带来了不小的挑战和压力,从而陷入了多维度的伦理困境[2]。例如,高强度的劳动监督、超负荷劳动诱导、隐私侵害[3]和歧视性决策[4]等引发算法伦理困境;安全感缺失、风险攀升、劳动报酬不稳定性加剧[5],导致了发展伦理困境;用工责任、职业侵权责任向劳动者转嫁引发责任伦理困境。如此种种,与国际劳工组织所倡导的体面劳动理念有所不符[6]。因此,对算法管理进行规制刻不容缓。
① 根据2021年国家互联网信息办公室发布的《数字中国发展报告(2020年)》,2020年我国数字经济核心产业增加值占GDP比重达到7.8%,数字经济总量已跃居世界第二。参见http://www.cac.gov.cn/2021-06/28/c_1626464503226700.htm。
② 参见国家信息中心《中国共享经济发展报告(2021)》。
在学界,学者们已经针对这一问题从多个角度进行了有益探讨。譬如,常春等[7]从劳动规章的角度提出构建平台用工规则来保护劳动者的合法权益。于萌[8]认为,国家应当重视积极的职业技能培训与人力资本投资,提升社会保障制度的包容性、保障性与创新性。谢增毅[9]认为,我国需要出台平台工人权益保护的专门法规以提升平台劳动标准。艾琳[10]提出,应将平台从业者的工伤保险与传统劳动关系解绑,统一职业伤害保障的思路。总体来看,通过修改现有法律或者制定新法对算法管理进行规制几乎已成为学界共识。
伦理是法律的精神实质,而法律是伦理的现实体现[11]。面对算法管理给平台从业者权益带来的时代挑战,单凭法律的外在规则是不够的,需要在算法决策中嵌入必要的人权价值和法治伦理[12]。正如亚里士多德所言,如果说具体法律规范在执行时可以根据情况加以改变的话,那么法律的精神和原则在任何情况下都是不能改变的,都必须加以遵守和执行[13]。伦理较法律处于更高精神维度的特征决定了二者在规范功能上可以也应当相辅相成,不可偏废。可见,探讨算法管理规制的伦理路径非常有必要,而这一话题是当前的研究尚未涉足的。据此,本文从算法管理的内涵出发,分析算法管理的三个伦理诉求,进而以“伦理法制化”为主线提出算法管理规制的伦理路径。
二、算法管理的内涵及具象化 (一) 算法管理的内涵对算法管理的内涵进行准确界定和呈现是本文研究的理论基础。算法管理模式是随着平台用工的兴起而被提出的。“平台用工”本身并非是一个规范的法律概念,其通常用以表述劳务提供者为基于互联网算法的平台提供特定内容的劳务活动[14]。以此为基础,学者们对算法技术在劳动过程中的管理实践认识不断深化,并结合具体的研究情境提出了算法管理的定义。
具体而言,国内外学者对算法管理的定义主要包括以下几种:其一,劳动控制论。该观点认为算法管理是一套控制系统,其中算法被赋予制定和执行影响劳动的决策的责任,从而限制了人工参与和监督劳动过程[1]。其二,劳动决策论。此观点认为算法是一种计算公式,它根据统计模型或决策规则自主作出决策,无须明确的人工干预[15]。据此,算法管理被定位为辅助平台工作者进行决策的智能系统,其不断地优化在线劳动过程并向平台工作者提供决策信息支持[16]。其三,混合论。其认为算法管理是企业运营管理的算法化,是企业利用算法技术组织劳动者完成工作任务的一种内部管理手段和方式[7]。此观点认为算法管理的功能在于以其自动化优势代替管理者执行管理职能[17]。
混合论的定义模式不但突出了算法管理的特点——管理算法化,而且在内涵上可以同时囊括“控制”和“决策”的意涵,更加符合管理学和法学的语境。因此,本文对算法管理采取混合论的定义模式。
(二) 算法管理的具象化 1. 控制劳动过程算法管理几乎控制了从业者的整个劳动过程,主要包含以下多个方面:其一,指派工作任务。消费者提交订单需求之后,算法平台会根据既定派单规则将其派发给在线从业者。应当注意的是,某些情况下,这一过程是以“抢单”的形式完成的。此时,虽然从业者可以自由决定是否抢单,但订单仍然只能通过平台获取,因此这并不能否认算法平台“指派工作任务”的本质。其二,决定报酬数额。完成工作任务之后,从业者可以获得相应的报酬,但平台对报酬数额拥有单方面定价权,且能够根据具体情况随时调整,如天气状况[18]。而且,由于平台具有绝对的信息优势,从业者几乎不具备议价和谈判的能力,只能听之任之[19]。其三,规定完成工作任务的方式、标准等事项。例如,在外卖平台中,骑手需要在平台规定时间和划定的路线范围内完成订单配送[20]。其四,实时收集并处理工作过程中的数据。算法平台不仅可以掌控劳动者的工作效率、工作完成度,还可以实时获取劳动者的定位、工作成果反馈及客户评价,甚至与客户的聊天记录等诸多数据信息[19]。譬如,网约车司机的行车路线、聊天语音等数据被平台实时监控;外卖骑手的位置、移动轨迹、到达时间、送达时间、消费者反馈等巨细无遗地被平台记录、储存[21]。其五,优化工作过程。平台系统不断收集从业者的工作数据,并借助算法的强大算力不断优化在线劳动过程[22]。由此可见,相比传统的劳动关系场域,算法管理对劳动过程的控制更为全面和精细,在控制强度上有过之而无不及。
2. 评估工作表现工作表现评估在管理学上也被称作绩效评估或者绩效考核。它是指用人单位对劳动者一段时间的工作、绩效目标等进行考核,将所得结果作为后续人事决策的依据[23]。由此定义可知,用人单位的绩效考核行为实际上可以分为两个部分:制定绩效考核规则、执行考核规则。不无二样,算法管理的模式中,平台对从业者的工作表现予以评估(绩效考核)也是通过前述两个步骤完成的。具体表现为:第一,制定考核规则。平台根据技术规则和管理目标构建起以用户打分、顾客评价和劳动者诚信档案等为基础的数据声誉机制[24]。譬如,“美团”和“饿了么”平台根据网络游戏《王者荣耀》建立起游戏化的评价机制以及顾客给出的服务评价体系。骑手完成工作任务之后,平台会根据量化的骑手工作数据,如完成任务的时间、承担的订单数量等给予“青铜”“白银”等各个绩效等级或者给予星级评价。同时,各个等级对应着相应的奖惩机制,从而对从业者的收入产生实质性影响[25]。第二,执行考核规则。算法执行考核规则非常迅速,其只需对从业者劳动过程产生的各种相关数据进行提取,如顾客点评、所耗时间、订单完成的数量等,并按照预先制定好的规则予以综合计算得出结果,然后反馈给骑手即可完成考核体系的执行。在此过程中,平台劳动者只能看到最终的考核结果,通常情况下并不知道结果的由来,也缺乏对此提出异议或者进行申诉的渠道。
3. 实施奖惩制度考核行为本身不是目的,运用考核结果才是最终目的。企业获得考核结果之后即可将之作为岗位调整、薪酬变动、奖金发放等奖惩决定的依据。而在算法管理的模式之下,平台以其自动化优势完全代替了企业人力资源部门的考核职能,充当着奖惩决定的实施者。以外卖骑手为例,当骑手没有按照规定的时间完成送餐任务时,平台会对骑手进行惩罚,最常见的就是扣款。有调查显示,骑手超时一单的扣款高达20元之多[26]。而当骑手按时按量完成任务达到奖励标准时,则可获得奖励,奖励主要表现为现金和荣誉两种。现金奖励系指平台直接向劳动者派发现金,使其获得经济收益;而荣誉奖励是指给予骑手较高的服务表现评级,从而使其获得优先派单的机会[27]。与传统的奖惩决定不同的是,在算法管理模式之下,平台实施奖惩决定时往往具有迅速、申诉不易等特点。
三、算法管理的伦理诉求现有的市场经济体制对企业的要求并非单纯来源于法律责任,《中华人民共和国公司法》(以下简称为《公司法》)第五条明确规定了公司的社会责任,既包括经济责任,也包括道德责任[28]。但在算法平台的掩护下,平台企业忽视和回避了企业伦理应有的道德责任。在平台用工场域,这一现象尤为明显,以致于算法管理模式诞生了多个维度的伦理诉求。
(一) 算法伦理诉求算法伦理旨在对算法提出道德要求以及使算法遵守相应的伦理标准[29]。算法管理模式的核心是算法技术,当然也应遵守算法伦理。我们既期望算法管理能够日益完善,友善服务于企业、从业者、消费者乃至于整个社会,也希望规避由此引发的一系列风险[30]。然而,就当前的实践来看,算法管理已然发生异化,偏离了这一伦理目标。马克思在《1844年经济学哲学手稿》中正式确立了异化逻辑,其主要思想是一种客体本应该服务于作为主体的人,但当异化现象发生的时候,这种客体或者物非但不能服务人,反而会控制人,这种主体和客体的关系完全颠倒就是异化[31]。具体而言,算法管理的异化有以下表现:其一,歧视性决策。以外卖平台为例,其通常通过对骑手的工作表现进行荣誉排名以决定订单机会的分配。而算法在对骑手进行荣誉排名时并不会考虑骑手不赴约的原因,骑手可能因患病、未成年子女需求等其他合理原因导致延迟取消预定或没有取消预定,从而造成其荣誉排名降低,丧失优先选择工作条件的机会[32]。其二,超负荷劳动诱导。从业者为了获得平台奖励,不得不持续工作。有学者以北京外卖骑手为例进行了研究,发现从业人员每日工作时间普遍超过10个小时,每月休息不超过4天[33]。其三,高强度监督。监督的自动化使得长时间的高强度监督成为常态[34]。算法管理能够代替监督者实现全天不间断的自动监督,对从业者在劳动过程中违反规则的行为自动识别并进行记录。其四,诱发风险。在外卖平台中,骑手需要在平台规定时间和划定的路线范围内完成订单配送,但有时平台所规划的时间和路线可能导致骑手违规危险行驶[20]。此外,平台对从业者的监视程度令人窒息[35]。例如,外卖骑手的位置、移动轨迹、到达时间、送达时间、消费者反馈等具无遗漏地被平台记录、储存[19],隐私保护无从谈起。
(二) 发展伦理诉求劳动是世间一切价值的终极来源,促进人类的解放和全面发展[36]。换言之,谋求自我发展是人们参与劳动的目的,可以说这是深入人心的伦理准则。“越努力越幸运”是发展伦理的生动体现。然而,在算法管理模式下,平台劳动者并未获得发展伦理的庇护,陷入了“越努力越不幸”的怪圈。这主要表现为:第一,个体品格丧失。算法缺乏道德想象的能力,所以基于算法的人力资源决策可能会损害员工的个人诚信,因为它会唤起人们对流程和规则的盲目信任,最终可能将人类边缘化为他们自己决策过程的一部分[37]。第二,劳动报酬漂浮不定。一方面,由于平台经常单方面调整补贴政策和计酬标准,导致平台从业者的收入不稳定性加剧[9]。另一方面,由于平台的精准计算,工作任务被碎片化分割,劳动者在单位时间内获得的报酬严重不足[38]。而且,由于平台具有信息优势,劳动者在报酬标准上几乎不具备议价和谈判的能力[19]。第三,最严算法加剧考核难度。平台在制定考核标准时会在很大程度上以算法平台收集并处理的各种工作数据作为直接依据。譬如,外卖平台为骑手设定的送餐达标的时间要求往往是以算法所计算出的众多骑手送餐时所能达到的最短时长为标准的。如此就可能导致从业者完成工作任务的效率越高,其将来就会面临越严格的考核标准。
(三) 责任伦理诉求现代伦理学就是围绕“责任”构建起来的,康德曾明确宣称自己的道德理论是“建立在责任概念之上的”[39]。所谓责任,不仅包含由法律规范调整的外部责任,还包括由伦理规范调整的内在责任[40]。而所谓责任伦理,德国哲学家韦伯在名为《政治作为职业》的演讲中说道:“遵循责任伦理的行为,即必须顾及自己行为的可能后果。”[41]这一理念几乎贯穿我国的法律体系,民法上的侵权责任制度、刑法中的先行行为义务以及行政法上的“权责统一”等都是具体体现。然而,算法管理模式出现后,责任伦理准则开始受到冲击,面临严峻考验。这主要表现为:第一,用工责任的从业者化。传统劳雇关系被一分为二,即劳动关系与非劳动关系两种非此即彼的结果。但在算法管理的作用之下,劳动力外包化的众包、微型工作等新型多元的劳动形态不断出现[42]。企业通过这一管理方式,有意识地针对传统从属性判断标准编织了一张包含隐蔽权力、转变权威、变更外部标志等新组织形态的面纱,使得传统从属性判断标准日益难以作出判断[43],试图从劳动关系中脱身而走[44],劳动用工逐渐去“劳动关系化”。由此产生的后果是,平台企业获得了平台劳动者的剩余价值,却无须承担相应的用工责任。典型表现是:平台企业规避了社会保险费用的缴纳责任,劳动风险只能由从业者自行承担。第二,职业侵权责任的从业者化。传统劳动关系中,劳动者因执行工作任务造成他人损害的,侵权责任的承担主体是用人单位①。但平台用工出现之后,司法实践中出现了截然相反的做法——由从业者承担侵权责任②。总之,平台用工责任体系发生了违背法律价值的扭曲:本应由平台企业承担的责任被转嫁到平台劳动者一方。因此,责任伦理亦是算法管理模式的急切诉求。
① 参见《中华人民共和国民法典》第一千一百九十一条第一款:用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任。
② 参见南京市鼓楼区人民法院〔2015〕鼓民初字第7340号民事判决书、上海市浦东新区人民法院〔2016〕沪0115民初81742号民事判决书、北京市西城区人民法院〔2017〕京0102民初10084号民事判决书、杭州市滨江区人民法院〔2017〕浙0108民初1046号民事判决书。
四、算法管理伦理诉求的法制建设伦理是法律的思想基础,它们具有共同的经济基础,共同的终极目标均指向“为善”[45]。法律是伦理的底线。因此,伦理诉求必须要通过法律制度的合理安排才能获得其应有的价值。
(一) 算法伦理的法制建设:基于设计者的角度算法伦理的目的在于使算法具有内在伦理规定性,以一种合乎伦理的方式运行,并且给出有道德的结果。就目前的技术来看,要求算法技术本身自带“伦理想象力”不具有现实可操作性,它只能依循企业价值观进行运转。在企业内部与算法相关的主体主要有两类,一类是算法设计者,另一类是企业管理者。设计者通常需要服从管理者的安排,因此,确切地说,算法所承载的是管理者输送给设计者的价值观。而管理者的价值观则受制于“企业利益最优”原则,其在向设计者传输算法价值观时极易忽略利润之外的其他因素,从而导致某些不利后果,如诱发算法歧视。作为专业人员,设计者对诸如算法歧视之类的后果应当有所预见。然而,基于二者之间的职务关系,设计者往往不会反对管理者输送的价值观。因此,为避免前述现象的发生,法律应规定设计者基于违法伦理规范而主张不执行管理者算法价值观的权利和义务。
2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称为《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。因此,运用算法管理模式的企业在设计算法时,其设计者应当根据《伦理规范》履行伦理后果的预见义务,且据此享有因管理者命令有悖于算法伦理而不予执行的权利。同时,为了防止设计者滥用权利或者因行使权利而受到损害,有关部门还应成立相应的伦理委员会,以审查设计者“反对管理者命令”行为的正当性。2022年3月,国家互联网信息办公室等四个部门发布了《互联网信息服务算法推荐管理规定》(以下简称为《规定》),《规定》第四条虽然确立了算法的伦理原则,但未明确具体主体。基于本部分的论述,《规定》第四条应当指明算法设计者在对算法输入价值观时所享有的权利和应履行的义务。
(二) 发展伦理的法制建设:基于从业者的角度发展伦理是人类社会关于发展问题的重要价值支撑和实践指引[46]。然而,在算法管理模式下,从业者难以通过自己的辛勤劳动来实现自我发展,这表现在精神品格(道德风险)和物质保障(劳动报酬不稳定)两个方面。因此,通过法制构建来将发展伦理嵌入算法管理模式时,我们也应从前述两个方面相应展开。
第一,精神品格方面。在传统劳动关系下,用人单位为员工提供长期的劳动权益保障与就业风险分担,以换回对其劳动过程的长期控制,并借以培育员工的忠诚和组织归属感,降低其道德风险[47]。而在算法监督时代,基本契约安排只关注劳动成果交割,而无问员工忠诚与组织归属[48]。技术系统并不能完全取代人进行道德伦理判断、人文关怀和独立的价值判断,也无法对非量化内容作出准确判断[49]。就此而言,算法管理模式实际上割裂了企业与从业者之间应有的伦理关系,导致了劳资伦理的“断层现象”。因此,法律应当尽快推动建立起平台劳动者与企业之间的对话机制,并保障从业者群体在集体协商过程中的话语权得到表达和实现,从而将二者之间的伦理关系重新连接起来。在互联网时代,组建网络工会并设置相应网络决策机制不失为一条可行且有效的路径。理由是:其一,技术优势。互联网技术的强大功能不仅可以联络起数以百万计的平台劳动者,还可以实现劳资双方的高效沟通。其二,组织优势。工会可以把个体工人重新铸造成可以用来讨价还价的集体力量[50]。如此,可以保证劳方在与企业对话时,拥有足够的话语权。然而,当前的《中华人民共和国工会法》(以下简称为《工会法》)并未将“平台劳动者”纳入其保障的范畴。因此,《工会法》应当及时进行改进。具体而言,应在其第三条第一款之后增加一款:平台劳动者依法参加和组织工会,亦适用本法。
第二,物质保障方面。取得足额劳动报酬是从业者进行劳动的最直接目的。但在算法管理模式中,由于平台拥有绝对的报酬决定权,导致广大从业者的劳动报酬的获得失去稳定性。对此,我们应当借鉴传统劳动关系的做法,设置合理的劳动基准,以法律的形式对平台企业的报酬决定权进行限制,以免其滥用该种权利。值得注意的是,制定《中华人民共和国劳动基准法》已成为十三届全国人民代表大会常务委员会立法规划的一项目标①。故此,在将来的立法过程中,立法者应当根据平台用工的特点为平台劳动者设置专门的报酬劳动基准。
① 《十三届全国人大常委会立法规划》,http://www.xinhuanet.com/legal/2018-09/08/c_1123397570.htm。
(三) 责任伦理的法制建设:基于企业的角度算法管理模式下,用工责任、职业侵权责任等均被转嫁给从业者群体,企业试图在算法平台的掩护下,实现“只攫取利益,而不承担责任”的幻想。责任伦理要求企业主动承担起因运用算法管理模式而产生的各种责任。对此,我们应该从两个方面回应算法管理的责任伦理诉求。
第一,强化企业的社会责任观念。法律可以通过确认、强化企业的价值观来激励企业的合法行为,使算法主体的技术行为符合人类实践的理性目标[51]。因为一旦某种价值观被确认,其就可以成为企业保护和支持自己合法要求的法理依据。当前,《公司法》第五条已经确立了企业的社会责任观念,但该条款仅处于确认阶段,尚待强化。对此,我们应从两个方面入手以强化企业在算法管理方面的社会责任。一是内容上的强化。我们应当把算法伦理和发展伦理的要求融入企业社会责任的内涵,促使企业将其上升到责任层面,形成相应的企业文化。二是范围上的强化。就目前来看,我国强化企业社会责任的文件仅有专门针对央企的《关于中央企业履行社会责任的指导意见》,国家应当在强化企业社会责任内涵的同时,推动该文件适用于所有企业,出台《关于企业履行社会责任的指导意见》。具体而言,算法管理对企业社会责任的要求应当包括:其一,采取措施帮助从业者躲避劳动风险;其二,给予从业者应有的人文关怀;其三,促进从业者权利实现,如其隐私权、对算法规则的知情权等;其四,尊重从业者的诉求和异议。
第二,强制平台企业承担用工责任保险义务。强化企业的社会责任观念虽然可以促进其在算法管理模式下自觉履行各种用工责任,但这一路径毕竟没有法律强制力作为保障,只能在一定程度上产生效果。因此,我们还需通过一定的强制手段来限制试图通过算法管理逃避用工责任的平台企业。2021年7月,人力资源和社会保障部等7部门发布了《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号)。该意见明确提出要“鼓励平台企业通过购买人身意外、雇主责任等商业保险,提升平台灵活就业人员保障水平”。就当前而言,将平台从业者与平台企业之间的关系确认为劳动关系,从而使之进入社会保障制度的覆盖范围,很有可能使平台企业不堪重负。在此情形下,购买各种责任保险帮助从业者对抗劳动风险是一条有效路径。因此,国家应当适时将对平台企业的责任保险义务要求从鼓励转为强制。
五、结语算法管理作为平台企业组织数以百万计的从业人员完成工作任务的主要工具,其设计必须恪守良性发展、规范应用的原则。然而,从实践来看,算法管理陷入了多个维度的伦理困境,对广大从业者的权益保障构成了巨大挑战。2022年1月15日,习近平在《求是》杂志发表署名文章《不断做强做优做大我国数字经济》,强调了保护平台从业者合法权益的重要性①。在法治社会,通过法律的强制力来实现从业者的权益保障是主要方式。因此,面对算法管理在算法伦理、发展伦理、责任伦理三个方面的诉求,“伦理法制化”是一条绕不开的路径,此亦是本文最终的落脚点。应当说明的是,本文讨论伦理的法制建设并非提倡“道德立法”,而是主张通过法律的方式来实现算法管理模式中的伦理建设,以此对平台企业的算法管理行为进行约束和规范,进而保障从业者权益,最终促进平台经济生态的健康发展。
① 参见“民主与法制”官网,https://www.sogou.com/link?url=DSOYnZeCC_oiolvOBaPH-37onZS-OncFzgOcSxh7gnXHxVWlukTtThiuz2uF1cLRys2pPU_-OfqphVU8r0zJxg。
[1] |
DUGGAN J, SHERMAN U, CARBERY R, et al. Algorithmic management and App-work in the gig economy: a research agenda for employment relations and HRM[J]. Human resource management journal, 2020, 30(1): 114-132. DOI:10.1111/1748-8583.12258 |
[2] |
XAVIER P R, SHARON K P. Algorithms as work designers: how algorithmic management influences the design of jobs[EB/OL]. (2021-05-10)[2022-04-01]. https://doi.org/10.1016/j.hrmr.2021.100838.
|
[3] |
ARIANA R. Levinson, industrial justice: privacy protection for the employed[J]. Cormell journal of law and public policy, 2009, 18(3): 686-687. |
[4] |
汤晓莹. 算法雇佣决策下隐蔽就业歧视的法律规制[J]. 河南财经政法大学学报, 2021, 36(6): 75-84. DOI:10.3969/j.issn.2095-3275.2021.06.009 |
[5] |
叶韦明, 欧阳荣鑫. 重塑时空: 算法中介的网约劳动研究[J]. 浙江学刊, 2020(2): 167-176. |
[6] |
International Labor Organization. ILO Centenary Declaration for the Future of Work[EB/OL]. (2019-06-01)[2022-04-01]. https://www.ilo.org/wcmsp5/groups/public/@ed_norm/@relconf/documents/meetingdocument/wcms_711674.pdf.
|
[7] |
常春, 喻术红. 算法管理的劳动法定位及规制建议[J]. 中国劳动, 2021(4): 16-27. DOI:10.3969/j.issn.1007-8746.2021.04.002 |
[8] |
于萌. 在灵活性与保障性之间: 平台劳动者的社会政策保护[J]. 南京社会科学, 2021(8): 76-83. |
[9] |
谢增毅. 平台用工劳动权益保护的立法进路[J]. 中外法学, 2022, 34(1): 104-123. |
[10] |
艾琳. 平台用工职业伤害保障探究——以网约配送员为例[J]. 社会科学战线, 2021(11): 207-216. |
[11] |
田小龙. 我们为什么要从伦理路径建设服务型政府[J]. 安徽大学学报(哲学社会科学版), 2019, 43(6): 148-156. DOI:10.13796/j.cnki.1001-5019.2019.06.017 |
[12] |
马长山. 迈向数字社会的法律[M]. 北京: 法律出版社, 2021: 153.
|
[13] |
张宏生. 西方法律思想史[M]. 北京: 法律出版社, 1986: 51.
|
[14] |
王天玉. 互联网平台用工的"类雇员"解释路径及其规范体系[J]. 环球法律评论, 2020, 42(3): 85-100. |
[15] |
Eurofound. Automation, digitalisation and platforms: implications for work and employment[EB/OL]. (2018-05-24)[2022-04-01]. https://www.eurofound.europa.eu/sites/default/files/ef_publication/field_ef_document/ef18002en.pdf.
|
[16] |
LEICHT-DEOBALD U, BUSCH T, SCHANK C, et al. The challenges of algorithm-based HR decision-making for personal integrity[J]. Journal of business ethics, 2019, 160(2): 377-392. DOI:10.1007/s10551-019-04204-w |
[17] |
MIN K L, KUSBIT D, METSKY E, et al. Working with machines: the impact of algorithmic and data-driven management on human workers[EB/OL]. (2015-06-08)[2022-04-01]. https://doi.org/10.1145/2702123.2702548.
|
[18] |
吴清军, 李贞. 分享经济下的劳动控制与工作自主性——关于网约车司机工作的混合研究[J]. 社会学研究, 2018, 33(4): 137-162, 244-245. |
[19] |
贾惠博. 人工智能发展趋势下劳动者权益保护研究[D]. 长春: 吉林大学, 2020.
|
[20] |
陈龙. "数字控制"下的劳动秩序——外卖骑手的劳动控制研究[J]. 社会学研究, 2020(6): 113-135, 244. |
[21] |
邓智平. "接单游戏"与平台经济中的劳动实践——以外卖骑手为例[J]. 求索, 2021(3): 108-117. |
[22] |
刘善仕, 裴嘉良, 葛淳棉, 等. 在线劳动平台算法管理: 理论探索与研究展望[J]. 管理世界, 2022, 38(2): 14-16, 225-239. |
[23] |
黄美灵, 周茹. 绩效考核与绩效管理关系的文献综述[J]. 北方经济, 2011(14): 20-21. |
[24] |
黄再胜. 网络平台劳动的合约特征、实践挑战与治理路径[J]. 外国经济与管理, 2019, 41(7): 99-111, 136. |
[25] |
陈龙, 韩玥. 责任自治与数字泰勒主义: 外卖平台资本的双重管理策略研究[J]. 清华社会学评论, 2020(2): 63-92. |
[26] |
冯向楠. 北京地区外卖员劳动权益保障状况及影响因素研究[J]. 劳动保障世界, 2018(33): 8-9. |
[27] |
冯向楠, 詹婧. 人工智能时代互联网平台劳动过程研究——以平台外卖骑手为例[J]. 社会发展研究, 2019, 6(3): 61-83, 243. |
[28] |
吴红列. 工资集体协商: 劳动关系的伦理诉求和法制建设[J]. 中国劳动关系学院学报, 2011, 25(2): 31-33. |
[29] |
ANANNY M. Toward an ethics of algorithms[J]. Science, technology & human values, 2016, 41(1): 93-117. |
[30] |
郭林生, 李小燕. "算法伦理"的价值基础及其建构进路[J]. 自然辩证法通讯, 2020, 42(4): 9-13. |
[31] |
娄延强. 人工智能的伦理困境与正解[J]. 道德与文明, 2022(1): 131-139. |
[32] |
罗智敏. 算法歧视的司法审查——意大利户户送有限责任公司算法歧视案评析[J]. 交大法学, 2021(2): 183-195. |
[33] |
闫冬. 平台用工劳动报酬保护研究: 以外卖骑手为样本[J]. 中国人力资源开发, 2020, 37(2): 114-123. |
[34] |
田洋. 互联网时代劳动过程的变化[J]. 经济学家, 2018(3): 44-51. |
[35] |
BURRELL, JENNA. The Society of Algorithms[J]. Annual Review of Sociology, 2021, 47(1): 213-237. |
[36] |
刘洋, 穆艳杰. 从自由劳动的视角诠释劳动的价值——基于马克思自由劳动理论的解读[J]. 海南大学学报(人文社会科学版), 2020, 38(6): 111-117. |
[37] |
EKBIA H, MATTIOLI M, KOUPER I, et al. Big data, bigger dilemmas: a critical review[J]. Journal of the association for information science and technology, 2015, 66(8): 1523-1545. |
[38] |
道格林, 德格里斯, 波谢. 平台经济与劳动立法国际趋势[M]. 涂伟, 译. 北京: 中国工人出版社. 2020: 30-31.
|
[39] |
陈嘉明. 建构与范导[M]. 上海: 上海人民出版社, 2013: 257-282.
|
[40] |
高童非. 数字时代司法责任伦理之守正[J]. 法制与社会发展, 2022, 28(1): 151-172. |
[41] |
韦伯. 学术与政治: 韦伯的两篇演说[M]. 冯克利, 译. 北京: 生活·读书·新知三联书店. 1998: 107.
|
[42] |
邱羽凡. 自营作业者之劳动保护与「准劳工」立法之初步分析——以德国法为参考[J]. 月旦法学杂志, 2021(314): 26-46. |
[43] |
李志锴. 组织行为视角下互联网平台劳动关系从属性展开的新进路[J]. 河北法学, 2022, 40(2): 98-115. |
[44] |
郑文睿. "互联网+"时代劳动关系变革的法理分析和立法回应——互联网平台用工关系定性释疑[J]. 社会科学, 2021(1): 89-99. |
[45] |
王群. 信息伦理研究[M]. 成都: 电子科技大学出版社, 2016: 19.
|
[46] |
张彦, 韩伟. 论发展伦理的正义前沿[J]. 浙江学刊, 2021, 2(2): 47-58. |
[47] |
FRIEDMAN G. Workers without employers: shadow corporations and the rise of the gig economy[J]. Review of keynesian economics, 2014, 2(2): 171-188. |
[48] |
DUNN M. Digital work: new opportunities or lost wages?[J]. American journal of management, 2017, 17(4): 10-27. |
[49] |
黄丽云. 数字社会的伦理困境与法治文化建设[J]. 中国政法大学学报, 2022(2): 12-19. |
[50] |
鲍曼. 个体化社会[M]. 范祥涛, 译. 上海: 上海三联书店. 2002.
|
[51] |
金梦. 立法伦理与算法正义——算法主体行为的法律规制[J]. 政法论坛, 2021, 39(1): 29-40. |