文章快速检索     高级检索
  科学与社会  2015, Vol. 5 Issue (2): 35-45  
0

引用本文 

段伟文. 机器人伦理的进路及其内涵[J]. 科学与社会, 2015, 5(2): 35-45.
DUAN Wei-wen. The Basic Approaches and Meaning in the Ethical Construction of Robot[J]. Science and Society, 2015, 5(2): 35-45.

基金项目

上海市哲学社会科学规划重大课题(2013DZX001)

作者简介

段伟文, 中国社会科学院哲学研究所研究员。研究方向为科学与技术研究、科学哲学、技术哲学、科技伦理、网络研究

机器人伦理的进路及其内涵
段伟文     
中国社会科学院哲学研究所
摘要: 根据机器人是否可以发展出人工的道德能动性, 其伦理建构可分为机器人伦理和机器伦理两种平行的进路:机器人伦理学和机器伦理。机器人伦理关注的是, 在机器人没有自主性时, 与之相关的人的责任和他们应遵守的伦理准则。机器伦理则试图在技术上构建-个新的伦理愿景, 让机器人有可能发展为自主的道德能动者, 从而使我们可以教会他们分辨善恶并以符合伦理的行为与人相处。
关键词: 机器人伦理    机器人伦理学    机器伦理    人工道德能动者    

随着人工智能、仿生材料和人工知觉等技术的发展, 人们正在努力制造外表和行为与人类一样的机器人。不久的将来, 一个机器人的时代即将开始, 各种人形机器人可能进入到人类社会生活的方方面面, 成为人类须臾不可离的伙伴。尽管机器人要接近或超越人的智能尚待时日, 但人们对于智能机器人是否会失控的担忧不无道理, 在机器人设计中预防机器人的反社会与伤害行为是有必要的。而这种设计仅仅依据智能化的" 条件一结果式" 的功能设定显然不够, 似乎还应该引入价值嵌入式的伦理设计。由此引出了机器人时代一系列的伦理考量:机器人应该嵌入什么样的伦理系统?机器人的设计与使用者应该遵守哪些专业伦理?人们应该如何对待机器人?更重要的是, 如果要设计具有道德判断能力的机器人, 在达成这一目标的过程中, 则应展开更为深入的哲学思考, 即:道德判断能建立在计算的基础上吗?机器人能否成为某种与人类似的道德能动者?机器人应该被视为一种什么样的道德对象?未来的机器人会毁灭人类, 还是会与人的界线日渐模糊?

一、 作为概念性创造物的机器人

尽管机器人时代可能即将来临, 但在其智能与综合能力突破" 奇点" 之前, 依然在很大程度上是一种概念性的创造物, 故关于机器人的认识始终存在着现实与想象的鸿沟, 在机器人涉及的价值与伦理问题层面尤其如此。从现实的工程技术视角来看, 机器人, 特别是工业上广泛使用的自动机器人只是一种机器, 它们没有自主性且不可能具有自由意志与道德意识, 因此机器人涉及的伦理问题可归于一般工程伦理。但机器人与其他机器的最大不同是, 它实际上是从科幻作品中走出来的, 是一种基于人们想象的概念性机器, 对机器人的概念性思考影响到了它的发展。作为人的想象的机器, 机器人的概念从一开始就体现出对人文价值的关切。KarelCapek在1921年创作的舞台剧《罗素姆的全能机器人》中首创" 机器人(robot)" 一词, 剧中的机器人发动了叛乱, 它们的人类主人被摧毁。在电影《黑客帝国》中, 人成为机器人的俘虏。

透过这些未来人类与机器人的反乌托邦, 人们表达了对其创造物可能出现反叛的恐惧。这种恐惧的根源是人们对创造的矛盾心态:一方面, 创造使人的力量不断放大且蕴含着无限的潜力与前景; 另一方面, 创造往往是人们在没有(也不可能)弄清全部机理与后果的情况下展开的, 创造的巨大潜力也可能意味着难以承受的伤害与风险。从伊卡洛斯的坠落到弗兰肯斯坦因的悲剧, 无不透露出人们对其创造的可能恶果的隐忧, 而这种情结在机器人这一问题上尤为突出。这种对创造的不自信往往源于人们对生命和智能等高级自然过程的起源知之甚少或知其然不知其所以然。恰如" 中文屋" 之类的思想实验所揭示的那样, 现在的人工智能并不拥有人所具有的理解和思考能力。在机器人的制造中, 有一种人们不愿意看到的可能性是:人类碰巧制造出了接近或超过人而且不再受制于人的机器人(如具有自由意志和决策能力), 进而导致人与机器人相互对立的风险。在欧美科幻作品中, 从《弗兰肯斯坦因》到《终结者》, 想象中的人与机器人具有双向的不平衡关系:作为主人的人创造了能力超过自己的机器人, 创造的快乐伴随着对创造物造反的恐惧; 作为仆人的机器人一旦拥有自我意识, 就有可能在自我能力与自我地位的不对等上产生身份认同上的冲突。这使得人与其所创造的" 他者" 之间的防范与反叛的攻防成为机器人概念的重要内涵, 也使得人们在寻求机器人的" 奇点" 突破时不无矛盾创造出与人能力相当或完全拟人的机器人, 想到人甚至可以创造另一个自己并与之相遇, 该是多么令人兴奋、又让人十分惧怕!特别是那些可能具有自我意识和创造力的机器人, 人们难免担心这种可以自我创造和进化的" 他者" 会不会是人类的终结者?在人工智能体和人工生命干预等领域, 有一种常见的反对意见是人不应该扮演" 上帝" ,但这种人文主义与宗教层面的审慎并没有说服人们停止具有不确定性的创造。

通过人工物的创造和对自然过程的介入、模仿和再造, 人类运用科技使自然成为人工自然, 甚至通过机器人、生化人等对人自身展开了与自然过程平行的模拟和创造。科技乐观主义者认为, 基于科学的认识与创造最终会使人类不断突破各种" 奇点" ,虽然科学技术可能造成各种危害与风险, 但借助科技人们总能找到应对之策。因此, 在科技与工程界, 尽管人们对科技的不确定性及其风险的认识不尽相同, 但在对新兴科技的负面后果特别是安全问题的认识、管控与治理上, 较容易达成共识。在机器人可能造成的危害性与安全性问题上也是如此。但此问题的特殊性在于, 这种危害不是一般意义上的工具与技术运用的潜在负面效应, 而是在创造物的能力超越创造者的层面发生的, 这迫使人们在机器人这一概念上就存有对它们可能会统治与毁灭人类的担心。这种担心在一定程度上是心理上的, 日本机器人专家森正宏在1970年提出的" 恐怖谷" 理论指出, 随着机器人和人类相似度的不断提高, 在最初阶段, 或许是出于好奇, 人们会倍感兴奋; 但当相似度达到一定程度后, 或许是出于生存竞争的本能, 在心理上反而会出现强烈的抵触和厌恶情绪。[1]这一理论已在人形机器人设计中得到了应用。在人们的想象中, 不仅顾虑人与镜像版的自己之间微妙的情感纠结, 更为复杂的担忧是感受到人的负面情绪的人形机器人如何做出反应:它们会不会像被遗弃的弗兰肯斯坦因那样将其能力用于反人类?

正是出于这种既向往又惧怕的矛盾心态, 著名的科幻作家Isaac Asimov于1942年所提出的机器人行为的三法则之首就是" 机器人不能伤害人类或坐视人类受到伤害" ;第二条法则是" 在与第一法则不相冲突的情况下, 机器人必须服从人类的命令" ;第三条原则是" 在不违背第一与第二法则的前提下, 机器人有自我保护的义务" 。这三条法则体现了对人类安全的重视, 同时也确立了人与机器人的主仆关系。1985年, Isaac Asimov又提出了第零法则机器人即使是出于自我保护也不能直接或间接伤害人类, 进一步强调了人类安全的重要性。Isaac Asimov的机器人法则在机器人法律与伦理领域产生了重大影响。1994年, Roger Clark在此基础上提出了机器人元法则:除非遵循Isaac Asimov的机器人法则, 机器人不可行动。毋庸置疑, 这些法则实质上还只是对机器人的伦理、法律与社会规范的概念性想象, 因为法则所规范的机器人行为的预设是, 机器人可以自主地依照它们行动、且至少看起来能准确把握这些规范但此预设实际上建立在机器人具有道德感这一科幻概念之上, 而即便在不久的将来, 机器人的能力也未必能达到这种概念性想象所及的高度。

人们对作为概念性创造物的机器人的想象涉及复杂的社会文化心理, 不同的文化与宗教背景对机器人的接受态度有较大差异。Asimov法则具有明显欧美文化价值取向, 带有强烈的人类中心主义的色彩, 将机器人永远定位为对人类友好的仆从。与欧美人机对立的视角相反, 日本和韩国的科幻作品中的机器人对人类是有益和友善的, 其机器人文化与规范更强调人与机器人的互动和伙伴关系, 甚至指出应减少对机器人不必要的滥用。一些西方宗教对制造人形机器人持消极态度, 如天主教认为人的身形是神的样子的摹本或来自神的想象, 制造人形机器人是对神的职权的僭越; 极端正统派犹太教的教义则禁止绘制人像和创作与人形相关的作品。日本的神道教却认为, 人所从事的所有活动, 包括生产与制造, 都是在神的指示下进行的; 在日本影响深远的佛教和神道教主张万物有自己的灵性与神性, 因此机器人也可以有灵魂。在这种宗教文化的影响下, 日本人更乐于接受机器人扮演的人类陪伴者的角色。

二、 以人为责任主体的机器人伦理

随着机器人技术的迅猛发展, 机器人的伦理、法律和社会问题日益引起人们的广泛关注, 为此而展开的价值反思与伦理建构是回应这些挑战基础与关键。进入21世纪以来, 数百万计的智能机器人开始大量进入健康、生活、教育、培训和娱乐等领域, 这些机器人不再是听人吩咐的机器" 奴隶" ,甚至在一定程度上具有自主性和决策能力。有的机器人扮演起人的陪伴者的角色, 还有的机器人成为人的社会交往乃至共同生活的对象, 部分机器人在某些方面的能力已经接近甚至超过人类, 在无人驾驶和军事战斗等领域机器人也可能取代人。有人预见, 不仅引爆超级人工智能的奇点即将来临, 而且机器人将变得比人更具智慧、更富有同情心。如《银翼杀手)(B1ade Run一ner)的宣传口号所言:" 比人更富人性" (More Human than Human)。由此引出的最具有争议的伦理问题是:随着机器人自动化程度与独立性的不断提升, 机器人能否像作为主体(subect)的人一样具有某种道德能动性(moral agency), 或者说机器人能否成为道德能动者(moral agent)或伦理能动者(ethical agent)(本文对" 道德" 与" 伦理" 两词不做区分, 且二者在文中原则上可相互替换)?

①能动性(agency)指有能力根据信念或欲求等意向主动采取行动做某事, 能动者(agent)指能够根据其意向主动实施某种行动的实体或主动的行动者(actor); agent也可译为主体, 但此处译为能动者, 旨在一方面强调能动性, 另一方面与相对于客体或对象而言的主体(subect)(一般指人)相区分。

对此问题的回应主要表现为两种不同的伦理架构。一种是基于现实性的以人为中心的伦理架构:鉴于现实中的机器人远未发展为道德能动者, 在机器人所涉及的伦理问题中, 道德能动者依然是与之相关的人, 故应该从一般的应用理论、工程伦理及专业伦理的角度, 探讨相关主体的价值取向、行为规范、责任分配、伦理抉择等问题。另一种是基于可能性的以机器为中心的伦理架构, 其基本构想是人们可以制造出一种具有道德判断和伦理行为能力的机器人, 使机器人成为道德能动者。前者的典范是" 机器人伦理学" ,后者的代表是" 机器伦理" ;下面先介绍机器人伦理学的要义, 机器伦理的主要内涵待下节讨论。

2002年, Gianmarco Veruggio等将机器人与伦理合并为复合词" robo一ethics" ,并以此命名其所主张的作为应用伦理的" 机器人伦理学" 研究, 旨在促使不同群体和不同信念持有者共享相关科学、文化与技术层面的工具, 对机器人的社会后果进行监控以使之人造福人类, 避免其被误用于危害人类。维格的机器人伦理主要探讨的是机器人的设计者、制造者、编程者和使用者的伦理, 它实际上是与机器人相关的人类的伦理而非机器人自身的伦理。2004年, 在意大利召开的第一届世界机器人伦理学(roboethics)大会上, " 机器人" 伦理学一词首次公开使用。次年, 欧洲机器人学研究网络(Euro一pean Robotics Research Network, EURON)立项资助" EURON机器人伦理学工作室" 项目, 其成果为" EURON机器人伦理学路线图" 。在欧盟第6框架计划中, 为了澄清人与软硬件等人工物整合(包括人与软件体的整合、人与机器人的无伤害整合以及物理仿生整合)中的技术伦理问题, 专门在科学与社会工作计划下设立了" 伦理的机器人(ETHICBOTS)" 项目, 以推动人工智能、机器人学、人类学、道德哲学、科学哲学、心理学以及认知科学对此展开多学科研究。为了应对人形机器人带来的安全隐患, 日本政府制定了家用和办公机器人的安全使用指南。韩国政府拟定了《机器人伦理章程), 旨在防止机器人的不良使用, 确保人类对机器的控制。

在相似的旨趣下, Brandon Ingram等人通过对机器人工程师的调研、咨询以及与焦点群体的讨论, 提出了" 机器人工程师的伦理准则" ,旨在提醒机器人工程师牢记其应该承担的伦理责任, 即增进全球、国家、区域、机器人工程师、客户与终端用户以及雇主的相关福祉。这套伦理准则包括:(1)在行为方式上, 机器人工程师应该准备承担对其所参与创造的任何创造物的行动与运用所带来的责任; (2)考量并尊重人们的物质上的福祉与权利; (3)不得故意提供错误信息, 如果错误信息得到传播应尽力更正之; (4)尊重并遵循任何适合的区域、国家和国际法规:(5)认识并披露任何利益冲突; (6)接受并提供建设性的批评; (7)在同事的专业发展及对本准则的遵循方面给予帮助与支持。[2]

类似地, 为了凸显机器人的设计者与制造者的专业伦理责任, Robin Murphy和David Woods指出, Isaac Asimov的机器人法则的前提是机器人具有某种功能性的自主的伦理抉择能力, 故其伦理架构的是以机器人为中心的; 而目前的机器人根本就不具备这种能力, 这种以想象的有道德能力的机器人为中心的伦理架构不仅忽视了人与机器人互动这一真正应该关切的视角, 更无法应对机器人运用中各种复杂的情境。由此, 他们主张从以机器人为中心的视角转向以人与机器人的互动的视角, 进而将Asimov机器人法则修订为三个替代法则(以*标识):第一法则*, 在人一机器人工作系统没有达到最高的法律上与专业性的安全与伦理标准的情况下, 人不可对机器人进行配置; 第二法则*, 机器人必须根据人的角色对人做出适当的回应; 第三法则*, 机器人必须确保得到充分的自主以保护其自身的存在, 只要这种保护可以顺畅地将控制转移给其他满足第一法则*和第二法则*的能动者[3]。在他们看来, 替代法则立足人一机器人系统的视角, 鉴于现实的机器人无法成为道德主体, 故替代法则的伦理架构是以人为中心的, 而机器人的能力存在于一种动态的社会认知关系网络中。但由此导致的一个悖论是, 通过强调人与机器人的互动固然有助于将替代法则伦理架构建立在以人为中心的人机关系之上, 但对人机互动的强调无疑又暗示, 替代法则意味着要求机器人成为能力更强的能动者在人与机器人的关系网络中, 机器人应该能够更好地对其他能动者做出回应, 更好地与之互动。

上述机器人伦理学、机器人工程师的伦理准则以及Asimov替代法则都主张构建以人为中心的伦理架构, 强调人应该为机器人造成的危害负责, 其实质就是构建以人为责任主体的机器人伦理, 但此立场也存在一定的困难。首先, 机器人工作的相对独立性使以人为中心的伦理架构难以对责任做出有效界定。主张以人为中心的伦理架构的初衷是希望以此凸显人应该为机器人的行动的成败及后果特别是所造成的危害承担责任, 但机器人的设计者原则上无法预见机器人的全部行为后果, 如具有学习能力的机器人受原来设计的程序影响有限, 设计者也无法对机器人与人互动的二阶负面后果负责。在实践层面, 即便主张人必须承担责任, 很多有机器人造成的危害明确单一的责任承担者, 为了避免无人负责的情况, 只能通过类似于保险的方式让所有的利害相关者共同承担补偿责任, 或者借助类似于监护人责任的模式使相关主体承担民事责任。其次, 随着机器人技术的发展, 可能出现作为机器人的" 监护人" 的人的责任承担能力相对不足的悖论。在无人驾驶、数据分析与决策等机器人的认知能力部分超过人的能力时, 就出现了作为弱者的人为作为强者的机器人的行为负责的悖论; 而且随着机器人的能动性的增强, 人们在心理上越来越倾向于认定机器人具有一定的道德能动性。由此, 赋予机器人伦理抉择能力等道德能动性、将机器人构建成与人类似的道德能动者成为一个开放的目标。

三、 走向机器伦理与人工道德能动者的建构

2004年2月在日本福冈召开的世界机器人大会发布的《福冈机器人宣言》指出:(1)下一代的机器人将作为伙伴与人类共存; (2)下一代的机器人应该在物质和心理上帮助人类; (3)下一代的机器人要为社会的安全与和平做贡献。这表明, 下一代机器人不再仅仅是Asimov法则下的人类友好的仆从, 而更多地以人类伙伴的角色出现, 但由此引出的一个关键性伦理问题是:这是否意味着人们可以将机器人构建成具有与人类似的道德地位的道德能动者乃至道德对象(moral patient)?对这个问题的回答需要廓清两个相关事实:(1)在人与机器人交往的过程中, 人们是否在社会心理上将机器人视为具有意向性的道德能动者或道德地位的道德对象?(2)机器能否具有道德认知能力?具体而言, 伦理规范和道德判断等伦理层面的知识与实践是否可以通过逻辑计算表达出来?

第一个问题是描述伦理层面的问题, 有关研究表明, 陪伴机器人在一定程度上可以帮助儿童习得利他主义等社会道德; 在一项调查中, 76%的儿童认为机器狗AIBO具有道德地位(狗的比例是86%, 测试的方法是询问儿童当他们不喜欢机器狗时是否会将其扔进垃圾桶?), 这表明机器人至少在功能与心理上可以模拟道德能动者并成为道德感受的对象。第二个问题是伦理的技术化实现的问题, 机器伦理的倡导者已为此描述出了大致的蓝图:一方面, 展开自上而下的伦理建构, 运用道义逻辑将道义论的义务和规范转换为逻辑演算, 同时通过净利益的计算实现功利的算计与权衡, 使机器人能够从一般的伦理原则出发对具体的行为作出伦理判断; 另一方面, 进行自下而上的伦理建构, 主要通过机器学习和复杂适应系统的自组织发展与演化使机器人能够从具体的伦理情境生成普遍的伦理原则, 通过道德冲突中习得道德感知与伦理抉择的能力, 最终使机器人的人工伦理能力得以从一般的人工智能中涌现出来。无疑, 不论是自上而下还是自下而上, 都存在着双重的困难:伦理理论与立场上难以消除的分歧、伦理与道德的可计算性所带来的局限性。对于机器人工程师来说, 只能在人工伦理系统的构建过程中逐渐予以改进。为了打破自上而下与自下而上这两种简单化区分的局限性, 机器伦理还引入了综合运用这两个进路的德性培育:尽管我们可以像伦理原则那样对德性做出较为明确的一般性界定, 但重要的不是用德性的一般标准指导具体的行为, 而是通过具体的伦理实践使德性自下而上地形成, 进而成为一种机器的性格特征。

机器伦理的建构实质上是对人工道德能动者建构, 其关键问题是机器人能否被视为道德能动者或在多大程度上可视为道德能动者, 对这个问题的回答取决于人们基本的机器人伦理观对机器人的价值负载、道德能力和伦理地位的基本认识。目前, 有关机器人的伦理观大致存在五种不同的伦理愿景。第一种观点认为, 机器人只是机器, 它的目的是完成某种功能, 与机器人相关的伦理问题属于一般的工程伦理问题。第二种观点强调, 机器人具有正面的伦理价值, 技术与创造是人的本质和人性的内在要求, 机器人技术是人性的新展现, 人形机器人等有助于提升人的个人与社会生活的质量; 在这种观点看来, 机器人技术发展本身就是符合伦理的, 无需加以伦理约束。第三种观点认为, 机器人可以依据编入其程序的伦理准则而使其行为合乎伦理。第四种观点主张, 机器人正在拓展为一种自主的伦理主体或人工道德能动者(Artificial Moral Agents, AMAs), 这种观点主要从机器伦理的维度探讨机器人伦理问题; 机器伦理的终极目标是伦理的技术化, 即将一种人工伦理系统嵌入到机器之中, 使机器在具体的情境中能按照理想的伦理原则做出恰当的伦理抉择由此, 作为人工道德能动者的机器人成为具有明确的道德推理能力的能动者。第五种观点强调, 机器人是进化的新物种, 不论是作为主体还是客体, 机器人都不是奴隶而有其应有的权利, 由此人所制造的机器人不仅应该具有自主性、情感和自由意志, 还应该具有一种全新的人性; 它使机器人在智能和道德上超过人类, 具有理性的心智并在道德上不可动摇的机器人将进化为一类新物种:我们的机器将会比我们更好, 我们也会因为创造出了它们而变得更好。[4]

伦理能动者(道德能动者)及其自主性的是机器伦理的基础性问题。上述后三种伦理愿景下的机器人可称为" 伦理的机器人" ,如果它们能在技术上逐步实现, 机器人就可能在不同程度上发展为拟人的甚至超越人类的道德能动者或伦理能动者。计算机伦理的创始人James Moor将伦理的机器人分为:(1)有伦理影响的主体(ethical impact agents), 即无论机器人是否有内置的伦理规范或人工伦理系统, 其行为本身都会产生伦理影响; (2)隐含的伦理主体(implicit ethical agents), 即在设计中内置有暗含的伦理考量的机器(人)主体, 如飞机上用于确保安全或安保的自动警报装置; (3)明确的伦理主体(explicit ethical agents), 即能根据不同情境辨析和处理与伦理相关的信息, 并对其所应采取的行动做出具有伦理敏感性的决定; (4)完全伦理能动者(full ethical agents), 一般指具有意识、意向性和自由意志的人。[5]

机器伦理对伦理能动者的讨论无疑有助于廓清人工伦理系统的实践建构机制, 使伦理学的概念经过改造以适应机器伦理建构的需要。在《机器人何时可以视为道德能动者?)一文中, John Sullins主张机器人在满足自主性、意向性和责任等条件的情况下可以视为道德能动者。他首先对遥控机器人与自主机器人做出了区分, 进而从自主性、意向性和责任等三个方面探讨了具有道德能动性的要求。他认为:(1)机器人的自主性并不是绝对的自主性即便人类是否具有这种自主性也非常值得怀疑, 而只是简单地强调, 当机器人的行为不直接受到其他主体和使用者的支配时, 就可能是具有自主性的道德能动者; (2)我们无法在最强烈的意义上证明机器人的行为具有意向性人的意向性也是如此, 而只是在常识心理学的意义上把握其行善与作恶的意向, 即当机器人及其程序在与环境的互动中所做出的善恶行为看似经过考虑和计算时, 就可以认定其行为基于其意向性, 机器人因而可能被视为具有意向性的道德能动者; (3)当一个机器人的行为只能被理解为其对其他道德实体所履行的责任才有意义时例如看护机器人的行为只有被理解为对看护对象的责任时才有意义, 机器人可能被视为负责任的道德能动者。George Bekey强调, 完全的遥控机器人不是真正意义上的机器人。他认为, 一般意义上可接受的机器人概念的关键在于其能够展现出一定的自主性, 或者能够自我" 思考" 以及就其向环境发出行为做决策。[6]

根据上述讨论, 机器伦理的建构出的人工伦理能动者的演化可大致划分为四个阶梯:(1)完全由人做出必要的伦理决定的遥控机器人; (2)通过人的设计和编程、遵循特定规范的操作机器人, 这种机器人具有操作性的道德能力和暗含的伦理能动性; (3)通过人的设计和编程而具有多种程度的自主性的机器人, 这种机器人具有功能性的道德能力和明确的道德能动性; (4)通过人的设计与编程而获得完全的道德自主性的机器人, 这种机器人可以自我进行道德抉择, 其功能性的道德能力具有完全的伦理能动性。

值得指出的是, 机器伦理研究所运用的是交叉学科的方法, 其主要进路是在机器人学等工程技术层面对机器人的伦理、法律与社会层面的概念进行重新解读, 使这些概念可以通过技术系统在工程上得以实现。由此, 一方面可以构建工程上可实现的机器人伦理系统, 另一方面, 这些嵌入机器人系统中的伦理系统的构建又为探讨一般性的伦理活动的实现机制提供了新的研究方法。

The Basic Approaches and Meaning in the Ethical Construction of Robot
DUAN Wei-wen     
Philosophy Institute, Chinese Academy of Social Sciences
Abstract: The premise of Asimov's Law is that the robots have the capability of autonomy and moral agency as human being. According to whether robots can develop artificial moral agency or not, the ethical framework about robot may be separated into two parallel subfields: roboethics and ma-chine ethics. Roboethics concerns about the responsibility of the related humans and the ethical codes that they should keep, when the robots do not have their autonomy. The machine ethics, however, tries to build on a new ethical vision technologically, in which the robots may act as au-tonomous moral agents, so that we can teach them to distinguish rights from wrong and let them be-have ethically towards humans.
Key words: robot ethics    roboe thics    machine ethics    artificial moral agent    
参考文献
[1] 约瑟夫.巴-科恩, 大卫.汉森.机器人革命:即将到来的机器人时代.潘俊译.北京:机械工业出版社, 2015:222.
[2] Ingram B, Jones D, Lewis A, Richards M, Rich C and Schachterle L, A code of ethics for robotics engineers. In Proceedings of the 5th ACM/IEEE International Conference on Human-robot Interaction, 2010:103-104.
[3] Murphy R, Woods DD. Beyond Asimov: the three laws of responsible robotics. IEEE Intelligent Systems, 2009, 24(4): 14-20. DOI: 10.1109/MIS.2009.69.
[4] Gianmarco V, Fiorella O. Roboethics: Social and Ethical Implications of Robotics in Bruno Siciliano, Oussama Khatib (Eds.). Springer Handbook of Robotics, Springer, 2008: 1053.
[5] Moor J H. The nature, importance and difficulty of machine ethics. IEEE Intelligent Systems, 2006, 21(4): 18-21. DOI: 10.1109/MIS.2006.80.
[6] George B. Current trends in robotics: Technology and Ethics. In Robot Ethics: The Ethical and Social Implications of Robotics. MIT Press, 2012: 17-34.