2. 北京大学法律与人工智能研究中心;
3. 北京大学信息科学技术学院
当前,我国已将人工智能产业作为国家优势和战略产业的突破点,运用新技术推动新的生产生活方式,将人工智能深入到传统社会产业转型当中,重塑社会格局。[1]
人工智能技术已进入高速发展的时间窗口,技术的市场化和社会化正在并将更加深远地对当下和未来的社会行为、社会关系、相关社会规则制度,以及社会治理方式产生显著的影响。[2]人工智能技术的应用一方面促进了相关领域的发展进步,另一方面也加速显现出了其所带来的风险。如何扬长避短,让人类在充分安全的条件下享用人工智能所带来的重大利好,已经成为人工智能治理体系建设的突出问题和重要任务。但需要注意的是,人工智能并非成熟技术,技术在不同发展阶段带来的社会效应不尽相同,因此,人工智能治理体系建设的研究同样需要采用发展的思路,避免出现传统治理方式阻碍技术发展的情况。
一、人工智能技术发展与治理焦点的变化人工智能技术在与人类社会和物理世界的不断交互中成熟。自20世纪50年代在达特茅斯会议上提出至今,人工智能经历了从“神经网络”到“专家系统”再到“深度学习”的三度技术领跑热潮,在不同的发展阶段,人工智能技术显现出了不同的技术特点和社会特征,因此,在治理思路的设计上,需要主动把握智能技术产业变革对社会各方面的影响,并选择合适的治理方式。
从人工智能的定义出发,“智能”究竟是什么?一般来说,智慧的产生需要经过从感觉到记忆,再到思维的过程,而智慧的结果就是产生了行为和语言。人们将行为和语言的表达称为“能力”,而将这两者结合起来就是“智能”。智能作为智力和能力的表现,主要体现为感觉、记忆、思维、语言、行为的共同作用。随着科学技术的发展,人类对自身大脑和神经的研究取得了一定的进展,这也让人类看到了解决“智能”问题的希望。[3]但在现阶段,人类仍然没有办法彻底研究清楚自身的神经系统是如何运作的,也未能清楚地认识到人类大脑的一些功能和原理。不解决这些问题,人类就没有办法走向“智能”研究的未来。
以算法、算力、数据为基础要素的,可以实现特定工作要求的人工智能被称为“弱人工智能”,也叫“专用人工智能”。基于这种技术特点,人们将人工智能的核心特征进行提取,与传统的工业、交通、金融业等行业全面融合,形成了新的社会经济形态。而能够自适应地应对外界环境挑战,完成人类能完成的所有任务的人工智能被称为“强人工智能”或者“通用人工智能”。至今为止出现的人工智能技术均属于专用人工智能范畴,但对通用人工智能的不断研究将会对社会、经济、军事等领域产生变革性的影响(见图1)。
![]() |
图 1 人类社会与不同阶段人工智能技术的结合 |
提及人工智能,很多人会理解为是机器学习、深度学习算法的成功,但人工智能的爆炸式发展不仅因为机器算法的出色表现,更要归功于硬件GPU的广泛使用、云平台提供的几乎无限的存储空间、各种行业应用数据终端和物联网传感器对数据的大量采集、无线通信网络和骨干网络对终端数据的快速传输等等。[4]因此,人工智能市场的成熟并不是单纯的算法驱动,而是多种技术手段、行业平台、社会影响因素共同作用的结果,其带来的社会问题也具有更多的交叉性。
(1)数据信息安全
在人工智能机器学习和深度学习项目中,高性能模型的训练需要大量训练样本作为支撑。算法对数据的强烈依赖催生了数据非法获取和滥用的频繁发生。在巨大的经济利益诱惑面前,APP强制授权、超范围收集个人信息等现象大量存在,违法违规使用个人信息的问题越发突出,由数据商业化利用引起的不正当竞争案件数量也在逐年增长。[5]
数据的所有权、知情权、采集权、保存权、使用权等成为每个公民在信息时代的新权益。从数据生命周期的角度,在数据的生产、采集、传输、存储、加工、销毁的过程中,数据的处理主体随着信息产业链的细分而不断分化;从信息产业空间的角度,个人数据、生产数据、经济数据、环境数据从不同终端汇聚,经过关联处理、深度加工,输送至不同行业和政府,驱动整个信息产业的运转。[6]无论从时间还是空间的角度,数据内容在整个信息链条上都呈现出了高度耦合的特征,数据的权益界限十分模糊,如何在公开、公平、公正的原则下赋予数据主体自主权利并解决主体间的权属争议,成为了新的治理问题。
(2)算法的客观性
算法作为大数据处理的计算程序、人类思维的一种物化形式、人脑的外延,其本质是以数学或计算机代码形式表达的意见。智能算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值选择,他们会把自己持有的偏见嵌入智能算法之中。而智能算法又可能把这种偏见倾向进一步放大或者固化。
在人工智能算法推荐系统的不利影响下,社会化媒体时代多通道的传播形态反而不利于信息的自由传播。[7]新媒体在传播过程中会出现“回音室效应”、“信息茧房”、“网络巴尔干化”等有意识或无意识形成的不良现象,导致人们沉浸在自己偏好的信息世界中,造成公众意识形态严重分化和网络群体极化。
与传统决策系统不同,对于基于智能算法的人工智能决策,公众无法理解复杂算法的机制原理和框架模型。智能演算过程通过输入数据和计算模型自行完成,甚至算法设计者也无法清晰地解释机器的具体操作过程。黑箱问题便由此而生,自主决策系统结论的可解释性成为了算法利用的新难题。[8][9]
(3)社会信任危机
人工智能与人类世界和物理世界不断进行交互,颠覆性的用户体验大幅提升了人类认知和改造世界的能力,使得人们在“虚拟”和“现实”间无缝穿梭。“斯坦福监狱实验”、“米尔格伦实验”等大量的心理学实验证实,虚拟现实可能会对人的行为产生影响,而这种影响会延续到现实世界中。在虚拟社会“相逢不相识”的情况下,可能出现道德主体社会感淡漠现象,容易发生“逾越”行为,形成网络暴力或恶意信息的大规模传播,给社会诚信造成严重冲击。
人工智能算法具备强大的学习模仿能力,由此带来的伪造技术的升级使日常生活所用到的合同、契约、证书及相关法律文本的防伪鉴定面临新的困难,对社会秩序的各个层面构成了严重威胁。宣扬错误政治观点的政客伪造视频、对抗网络生成的“虚拟特工”、使用基于通用语言模型GPT-3的“最强假新闻生成器”造假等种种问题已经在影响着社会秩序,巨大的舆论压力对伦理安全和社会安全也造成了新的威胁。
2. 机器权利的扩张与人类权利的冲突随着技术的不断发展,智能体与社会环境相互作用形成了更高等级的智能,具有独立思维能力的通用人工智能时代逐渐来临。有知觉和自我意识的高级人工智能技术能够完成抽象思维、复杂理念理解、快速学习等一系列高级智能活动。人作为社会的主体,具有独立意思表示、权利能力、行为能力,作为客体的物处于人类主体的控制之中。而通用人工智能更加强调智能的类人属性,是具备独立思维和情绪的智能机器,处于一个类主体的状态。不明确的分类带来了智能体在伦理、义务、道德、责任等多方面的冲突表现(图2),这种具有类主体性质的社会矛盾会随着智能体能力的提升而不断加剧。
![]() |
图 2 智能体的类主体地位 |
(1)机器权利与人权的平衡
对于智能机器的人身权利,已有国家开始着手相关工作。沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚以公民资格。欧盟议会法律事务委员会(JURI)发布了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,并发布了研究成果《欧盟机器人民事法律规则》,主张赋予高水平智能机器人和电子人以主体资格。但是对智能体法律主体地位的讨论目前在学界仍未有定论,仍将智能体视为法律客体。
机器权利和人类权利的关系并非和谐,以电气与电子工程师协会(IEEE)《人工智能设计的伦理准则》为代表的人工智能领域伦理监管建议,都着重提到了机器权利与人类价值观和人权的关系,要保证系统的设计和运作符合人类的尊严、权利、自由和文化多样性,不侵犯人权。“无人驾驶”的伦理困境已经成为人类与机器操控权分配的典型代表,“辅助驾驶系统”能力的夸大和人类对驾驶控制权的放弃导致了此类自动驾驶事故仍在不断发生。在2019年埃塞俄比亚航空事故中,波音737Max的飞行控制计算机出现“数据错误”,但飞行员无法夺回对飞机的控制权,最终酿成悲剧。因而,在主张机器权利的同时,更需要对其加以义务限制,如法律义务和道德保障义务。[10]
(2)智能体作品的知识产权归属
人工智能可以自动迭代算法并反馈学习,产生新数据,具备一定的创造能力。结合算法的设计,专用人工智能虽已可以产出一定的创作性成果,但模仿型的创作不具备主观创作能力。知识所属权是指权利人对其智力劳动所创作的成果和经营活动中的标记、信誉依法享有的专有权利。[11]由于人工智能不具备法律主体资格,无法行使权力并承担义务与责任,因此人工智能体对创作物不具备相应的著作权等相关权利。
代表性的案例是欧洲专利局(EPO)于2019年12月底,以申请案不符合欧洲专利公约(EPC)为理由,正式做出驳回AI智能DABUS的两项发明申请案(EP 18275163、EP 18275174)的决定。但是,随着高级人工智能不断向独立智能体发展,其本身的地位和行为属性,使得人和物的关系需要重新界定,知识产权的归属问题在未来也会成为新的治理焦点。
(3)社会衍生问题
人工智能风险总体上分为两种形式,一是上面提及的,由于人工智能自身技术缺陷或者自身边界不明确导致的风险,可称之为人工智能的原生问题;二是人工智能领域的衍生问题,即人工智能技术与原有全球问题(如恐怖主义、气候变化、流行性疾病)相互交织引发的新的社会危机。如劳动力结构变化,当前越来越多的技能落伍者面临劳动力市场的重新选择,结构性的就业矛盾难以避免,需要积极面对劳动力市场的变化,提升从业者信息技术能力和水平[12];又如致命性自主武器应用,目前对于支持还是禁止致命性自主武器系统,国际社会仍存在很大分歧,各国也在努力寻求合理的伦理机制和国际法规,对致命性自主武器系统进行有效管控。伴随着智能体对人类工作替代性的加强,社会衍生问题会逐步处于突出地位。
二、治理模式的运用取决于技术能力和社会环境的变化 1. 治理的出现:突出技术与伦理的规范价值治理出现于人工智能技术发展的初始阶段,此时大规模的市场应用尚未形成。[13]人工智能没有对社会产生根本性的影响,治理体系也处于萌芽状态。治理内容多为对人工智能原生技术问题的处理和随着社会对人工智能认识的加深而逐步形成的伦理规制框架。
在这个阶段,技术治理的问题主要集中在人工智能技术的安全性和可用性,如算法的公平、算力的可控、数据的安全等内容。算法在不断发展中仍存在诸多缺陷,如鲁棒性、迁移性、自适应性、可解释性等,这些问题在一定程度上制约了人工智能的广泛应用。技术的蓬勃发展带来了算力需求的指数增长,其与算力提升速度趋缓之间形成了一定的矛盾。在数据方面,大数据的资产属性有别于传统的物理资产,因此,人工智能对数据的系统架构、安全能力、防控水平都提出了新的要求。
与此同时,作为道德守则的人工智能伦理框架正在逐步形成。伦理规范既有约定俗成又有理性建构,伦理规范本身是软措施,并不以国家强制力作为后盾,但它们构成了人工智能启蒙时代的道德基础。将发展人工智能定位于以人为本、服务于人的目标,是人们对人工智能的价值判断和选择,如1950年图灵在《计算机器和智能》中提到“人工智能的发展是研究、开发用于模拟、延伸和扩展人类智慧能力的理论、方法、技术及应用系统,从而解决复杂问题的技术科学并服务于人类”[14]。
在这个阶段,技术没有与应用场景充分结合,相关技术应用的安全风险不明确或处于未知和有待防范和控制的状态,政策和法律治理手段无法明确发挥效用。
2. 治理的加速:强调法律和政策对应用场景的监管治理的加速伴随着技术的飞速发展,人工智能技术的应用场景正在逐渐成为监管的主要对象,促进与监管并行成为主要基调。人工智能已经作为重要的技术手段与各个行业进行了深度的耦合,该阶段的治理除了包含上一阶段对技术的治理外,大部分内容是对人工智能与各行业结合的场景进行治理,即转换为对“人工智能+”的治理。当前对人工智能的治理正处于该阶段。
在这个阶段,政府在人工智能治理中发挥着领导性的作用,体现在国家层面上人工智能技术研发与治理框架的搭建,专业机构的设立,以及政策与法律的制定等方面。在人工智能技术应用前景相对较为明确和成熟的领域,以法律和政策为基础的风险防控体系开始发挥效用。在自动驾驶、无人机、产业机器人、医疗看护机器人等应用场景中,各国已经在不同程度上开始进行适当的监管或为可能的监管进行着准备,纷纷出台了各类规范性政策或法规。如美国国家公路交通安全管理局发布的软法性规范《自动驾驶系统:安全愿景2.0》和《智能投顾指南》;英国的《2018年自动驾驶汽车和电动车法》;中国的《智能网联汽车道路测试管理规范》和《人工智能辅助诊断技术管理规范(试行)》等。
在大部分综合领域,人工智能技术仍处于高速迭代时期。法律治理的强制性,稳定性、滞后性的特征使得当前各国政府无一例外地积极支持和鼓励“伦理指南”等软法性、自治性规范的研究和制定,以期在不限制发展的前提下对人工智能的社会影响进行规范。在推进人工智能治理规则全球共享上,G20(二十国集团)、人类未来研究所、电气与电子工程师协会等国际组织在很大程度上成为治理规则的引导者和推动者,提出了《阿西罗马人工智能原则》和《G20人工智能原则》,以及一系列全球人工智能标准化文件。[15]
3. 治理的稳定:形成稳定的智能社会规范体系人工智能治理的成熟阶段是以技术应用的成熟为基础和前提的,可以理解为专用人工智能的发展进入社会稳定期且长期处于稳定状态或通用人工智能已经实现并达到成熟阶段。
只有技术稳定应用,法律和政策才能持续稳定地发挥作用。经过社会各种价值的冲突、调整、平衡、沉淀,人工智能相关的价值要素在这一阶段已经脱离了整体抽象和概念化表达的状态,作为权利和义务有机地融入到了法律规范和社会制度之中。治理的过程需要在人类绝对主体性和智能体可控可知的前提下,对人工智能技术在研发和应用过程中在政治、经济、军事、社会管理等生产生活领域所产生的社会效应进行梳理评估。
在法律治理意义上,发展成熟的人工智能应用场景应该与不同领域的法律关系以及不同层级的法律规范有更加紧密的关联和深层的涉及,在现实运行的规范体系中能够充分体现自己的存在。[16]也就是说,围绕相关事物产生的社会行为关系能够被相关的部门法律所界定,从而对其进行有效规制,并通过法律的运行和适用进行调整。
但是这种稳定状态的人工智能社会权利义务内容和行为模式尚未成为现实,还需要随着技术的发展开展进一步地深入研究。在这个阶段,要做到持续跟踪强人工智能技术和产业发展态势,及时评估强人工智能的应用影响,进行动态策略分析,侧重保障安全和防范风险的伦理和政策监管,但应保留足够的灵活性,保障安全和发展的平衡,对发育成熟的相关社会行为和关系及时进行规范化和制度化。
三、构建治理模式多元的人工智能弹性治理框架人工智能治理主体(国家政府、国际组织、行业组织、企业、公众)通过治理手段对治理的客体(人工智能技术、人工智能产品、人工智能服务等)进行规制。在一定时间和空间范围内,条件的变化会导致治理模式的变化,这些变化的治理模式便形成了一定时间和空间范围内的治理和规制道路。
人工智能治理的框架就是对人工智能治理和规制的基本要素、条件、方式、方法的结构性构成,可以将其描述为自变量、函数值、运算规则的函数运算模型。在整体人工智能治理和规则建设过程中,所要考量的安全保障、风险防范、权益实现、发展进步等价值,所涉社会主体的群体性或个体性,所涉现实客体价值的抽象或者具体状态,相关法律秩序有序变迁的保障性因素等等,构成了治理和规制工作需要着重对待的现实变量因素。这些因素既包括不同阶段人工智能作为客观客体所展现出来的价值目标和问题因素,即这个函数公式的自变量,也包括人工智能技术在研发和应用状态下所形成的社会治理条件和因素,还包括人工智能治理在不同情况下所选用实施的具体规制和治理的方式方法,即这个公式的函数值。基于此,人工智能的社会治理就是在不同的发展阶段,在解决不同问题的运算法则确定的情况下,这些变量因素的现实动态博弈过程和结果。
在社会价值基础的大前提下,人工智能领域的治理手段是非常多元化的,包括伦理原则、政策导向、法律规制、技术治理手段。而其所运用的运算法则,就是立法、司法、法律适用、伦理道德和政策等不同的规制方法和规制方案在规制治理方面所具有的独特的功能特点,与相关现实问题解决和价值目标实现之间合理匹配的关联关系(图3)。在架构图中,多种治理手段以松耦合的形式匹配关联,治理模式呈现多元性,且随着社会和技术的发展动态变化。
![]() |
图 3 人工智能治理体系逻辑结构图 |
要实现人工智能弹性治理框架的效用,需要从以下三个方面加以推进:
(1)动态评估和应对技术发展形势,树立弹性包容的治理理念
人工智能技术已经成为当前最具战略性的技术领域。在这一决胜未来的关键性技术竞争中,我国企业和研究机构在技术研发和创新中处于全球领先地位,并积极参与到了国际竞争与合作当中。需要充分发挥和调动现有优势,通过跨学科的调查、各利益相关方的对话和公共讨论,对人工智能产业可能为我国带来的影响进行及时和整体性的预估,并制定相应的应对计划。
明智的政策选择和前瞻性的应对,既需要有及时、准确、全面的信息作为支撑,也需要政府与专业可靠的智囊,以及产业最前线的各利益相关方开展精诚合作,共同应对技术革命带来的机遇和挑战;同时坚持开放协作,提升国际竞争力,积极参与国际规则制定过程并发挥更大的影响力,为我国产业谋取更大的发展机会。
在治理理念上,要结合技术发展的实际情况,运用复合的治理工具,构建分阶段的治理路径,在保持治理监管灵活性的同时,保留技术创新和发展的空间。[17]分阶段的治理方案包括,在近期加快制定产品和服务标准,加强数据治理和个人隐私保护,采用场景化的规制消化人工智能带来的各种问题,并从长远的角度实现法律和伦理的对接,做好对人工智能技术机遇、影响、问题和挑战的持续性跟踪研究。
(2)探求“发展与安全”的平衡,保持产业界、学术界、公众的沟通协商
技术发展和社会安全是人工智能应用价值的两个重要方面。安全与发展在人工智能技术发展和应用的不同阶段呈现的状态是不同的;在不同国情和社会条件下,二者之间的矛盾张力状况也不一样,由此形成的不同博弈和选择从根本上决定着信息技术伦理治理和规制的道路和方法。
各国政府虽共同定位于“发展与安全”,但在具体内容和权重分配上仍有一定的差异。美国、欧盟、英国、澳大利亚等西方发达国家的“发展”重点主要在于促进创新和竞争,政府的措施旨在提供更多的公共服务和公共产品。日本和韩国则在促进创新和竞争的基础上,试图更进一步地通过政府的支持和努力促进本国产业的“发展”,为此采取了更为积极的支持性措施。在发展与安全的权重分配上,英国的《人工智能在英国:是否准备好、愿意并且有能力应对?》指出:“任何可能对个人生活产生实质性影响的人工智能系统,除非该系统能够对其决策产生完整和令人满意的解释,否则就不应当被部署。”而日本在《官民ITS (Intelligent Transport Systems)构想和路线图》中确立的“高度自动驾驶系统制度设计相关立场”,第一点就提及“首先应当认可自动驾驶将带来的巨大的社会利益,并从推进其引入的角度去考虑如何准备相关制度。”由此可见,不同国家对“发展与安全”的态度存在显著区别。各国政府和国际社会对人工智能的治理都仍处于讨论和研究阶段,尚未形成规则和共识,保持富有弹性的治理监管体制将有利于通过持续跟踪和观察技术发展的趋势和国际讨论的进展及时和低成本地进行调整。
作为目前最为前沿性并主要由私营部门推动的技术领域,头部企业和科研重点院校是人工智能技术的主要开发者和拥有者。在“发展与安全”的过程中,建立和保持与产业界、学术界的沟通协商机制,有助于更快更好地掌握相关领域的专家知识,随时了解相关领域的最新发展动态和需求,并集合多方智慧为人工智能监管提供有益的见解。伴随技术应用性和开放性的增强,公众对人工智能产品实践的参与度也在不断提高。深入了解公众对人工治理的价值期待和社会治理需求,积极帮助公众适应人工智能时代带来的环境挑战和劳动力市场的结构变化,树立公众对人工智能的使用信心,是实现社会与技术价值双赢的重要途径。
(3)加强伦理、政策、法律多种治理方式的有效结合,重视软法性规范的研究和制定
伦理规范构成了人工智能时代的社会道德基础,标志着社会、组织、个人的文明程度,也决定着人类未来的走向。科技领域,伦理先行,在基础价值选择方面,人类已就“可持续发展”达成共识—“满足当代人的需求而不影响后代人满足需求的能力”。在这样的价值取向下,需要建立人工智能科技伦理理论、规范和监管体系,要求原有的技术体系和治理体系做出改变,并与科技风险监管责任相匹配。
政策是灵活性的治理工具,国家可以运用政策手段灵活调控信息技术和产业的发展进度,使得技术发展在安全和效率之间达成适度的平衡。在政策治理方面,既要注重对智能产业的整体促进,以在全球的技术竞争中抢占先机,又要关注人工智能技术在发展中即将暴露和已经暴露出来的风险,进而开展风险评估,决定是否出台相应政策,暂缓产业发展或提供相应的风险解决方案。
法律是强制性的治理工具,但由于法律的稳定性、滞后性以及违反后果的严重性,各国在人工智能领域中对法律手段的使用非常慎重。通过对各国人工智能相关立法进行梳理可以发现,全球目前还没有一部有关人工智能的综合性立法。
为了避免强制监管对技术的约束,当前各国政府大多仅设立了专门机构,以研究人工智能对相关领域的影响并提出政策建议的促进性立法,我国政府也在积极支持和鼓励“伦理指南”等自治性规范的研究和制定。尽管这些促进性立法和伦理原则规范没有强制性的法律效力,但它们代表了当前受到高度重视的监管方向,并且极有可能在未来条件成熟时转化为具有强制力的法律规定。可以逐步尝试在某些人工智能应用发展相对成熟的领域建立“监管沙箱”制度,即对于新兴的产品或服务,可以先通过简化的市场准入程序,允许其在一定范围内快速落地进行测试和验证,从而降低制度滞后对技术发展的影响。
总之,基于我国当前的人工智能治理场景,应当积极研究信息技术和产品的新问题,以期在治理方式和立法体系上做出及时的应对。面向飞速发展的技术形势,需要弹性运用多种治理手段,并在不同的社会规范维度下分工配合,运用社会舆论、政策引导、国家强制力等多种力量,全面引导人工智能技术的安全有序发展。
对于相对比较成熟的技术领域,要加强约束;对于尚不成熟的技术领域,要强化研究,不要因治理上的操之过急而阻碍了技术的正常发展。坚持前期引导,中期约束,后期干预的治理逻辑。在技术发展前期,可以考虑运用伦理和政策手段,以“服务于人类福祉”的理念引导技术发展;在中期,可以通过修改部门法和颁布行政法规的方式,对技术的不良现象进行必要约束;在后期,可以考虑以专门立法的方式对特定技术进行整体干预。同时,我国在人工智能治理研究中要不断关注国际合作和竞争方面的新进展和新趋势,开放协作,提升国际竞争力,积极参与国际规则制定过程并发挥更大的影响力,为我国产业谋取更大的发展机会。
[1] |
赛迪智库信息化形势分析课题组. 2020年中国信息化发展形势展望. 中国计算机报, 2020-1-20(12).
|
[2] |
国务院. 关于印发新一代人工智能发展规划的通知. http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.html[2017-07-20].
|
[3] |
肖峰. 人工智能的认识论效应.
大连理工大学学报(社会科学版), 2021, 42(3): 7-14.
|
[4] |
赵姗. 人工智能为“十四五”时期现代化建设提供创新动能. 中国经济时报, 2021-3-29(4).
|
[5] |
K. Davis, Doug Patterson.
Ethics of Big Data. Sebastopol: O’Reilly Media, 2013, : 27.
|
[6] |
程啸, 栗长江. 论大数据时代的个人数据权利.
中国社会科学: 英文版, 2019, 40(3): 174-188.
|
[7] |
李安. 算法影响评价: 算法规制的制度创新.
情报杂志, 2021, 40(3): 146-152+161.
DOI: 10.3969/j.issn.1002-1965.2021.03.025. |
[8] |
郑智航. 人工智能算法的伦理危机与法律规制.
法律科学(西北政法大学学报), 2021, 39(1): 14-26.
|
[9] |
彭兰. 网络传播概论. 北京: 中国人民大学出版社, 2017: 156−157.
|
[10] |
王耀彬. 类人型人工智能实体的刑事责任能力主体资格审视.
西安交通大学学报(哲学社会科学版), 2019, 39(1): 138-144.
|
[11] |
杨立新. 民事责任在人工智能发展风险管控中的作用.
法学杂志, 2019, 3(2): 25-35.
|
[12] |
王国豫. 推进新时代科技伦理学新发展. 中国社会科学报, 2020-1-14(6).
|
[13] |
庞金友. AI治理: 人工智能时代的秩序困境与治理原则.
人民论坛, 2018, 20(10): 6-17.
DOI: 10.3969/j.issn.1004-3381.2018.10.001. |
[14] |
叶秀娟. 信息伦理学: 应用伦理学研究的新领域.
湖南第一师范学报, 2003(1): 8-11.
|
[15] |
国家信息化专家咨询委员会秘书处. 信息化蓝皮书: 中国信息化形势分析与预测(2018—2019). 北京: 社会科学文献出版社, 2019: 283−300.
|
[16] |
刘云. 论人工智能的法律人格制度需求与多层应对.
东方法学, 2021(1): 61-73.
DOI: 10.3969/j.issn.1007-1466.2021.01.006. |
[17] |
雷瑞鹏, 邱仁宗. 新兴技术中的伦理和监管问题.
山东科技大学学报(社会科学版), 2019, 21(4): 1-11.
|
2. Law and Artificial Intelligence Research Center, Peking University;
3. School of Electronics Engineering and Computer Science, Peking University