2017年11月24日,中国科学院学部在福建莆田组织召开了2017’科技伦理研讨会。会议由中国科学院学部科学道德建设委员会主办,中国科学院学部科学规范与伦理研究支撑中心、福建省科学技术协会承办,《科学与社会》编辑部协办。来自相关领域的院士和科技专家、人文社科学者、企业界人士、部门领导和媒体代表共80余人参加了本次会议。
此次研讨会以“人工智能:在效率和安全中寻求统一”为主题,围绕人工智能的伦理问题及处理、人工智能技术安全及其社会管理等议题展开研讨。与会者剖析了中国人工智能面临的各种挑战,探讨了解决人工智能发展问题的对策,倡导构建一种效率与安全统一的人工智能发展路径。
中国科学院学部科学道德建设委员会委员郭雷院士主持开幕式。中国科学院学部科学道德建设委员会(以下简称“道德委”)主任裴钢院士、福建省科协副主席史斌、莆田市陈志强副市长分别致辞。
裴钢主任在会议致辞中指出,科技伦理非常重要。道德委一直通过部署研究课题和定期研讨,将科技伦理的研究和交流常态化。2011年以来,道德委已围绕转基因和纳米技术、干细胞研究、互联网技术、生态环境、科学研究中的伦理、科技评价和科研环境等问题成功举办了6次研讨会。相关成果通过报刊、杂志、微信公众号等媒介的广泛传播,在科技界和社会上产生了良好的影响。当前,中国在人工智能领域发展迅速,我们不能不考虑其在发展过程中带来的各种问题,因此,本次研讨会聚焦人工智能这一主题。
福建省科协副主席史斌指出,人工智能正成为新一轮科技革命和产业变革的核心技术,全球都在进行战略部署,中国是全世界人工智能行动最早,动作最快的国家之一。人工智能对于福建省的发展起到积极作用,自2013年福建省科协积极推动“中国制造2025”以来,推进了福建鞋帽等传统制造业的转型升级,促进了人工智能在福建各行各业的深入发展。
会议邀请6位来自高校、科研机构、企业的专家学者做了专题报告。北京大学查红彬教授围绕“人工智能的挑战”这一主题,从弱人工智能与强人工智能两个层面探讨了当前面临的科技伦理挑战。他指出,在弱人工智能方面,我们要认真关注信息安全与个人隐私、产业结构与就业机会等方面的隐患,并找到相应的对策。在强人工智能方面,我们要对智能机器能否获得完全的自主能力、创造性、自我意识等只有人类才具有的特性,有清醒的认识。只有这样,我们才能在科研布局、科技政策以及科技伦理等环节早做准备,以保证人工智能的研究最终给人类带来光明的未来。
浙江大学廖备水教授关注到“如何把我们伦理嵌入到人工智能系统”这一问题,提出基于论辩的方法来阐明一个自主的人工主体如何对规范进行推理并提供解释,并把可计算论辩用于冲突解决、行为解释和规范解释。他指出,由于不同的利益攸关方有不同的观点和偏好,人工智能系统应该能够从一组可能冲突的价值中选择价值,并且对这些相应的规范进行推理,以做出决策。他认为,作为一种现代对话逻辑,形式和非形式论辩可以把来自不同领域和学科的不同观点联系起来,使得不同利益攸关方在分歧中寻求统一。
中国科学院自动化研究所袁勇副研究员提出,区块链是沟通虚拟与现实世界的桥梁。他指出,区块链是随着比特币等数字加密货币的日益普及而逐渐兴起的一种全新的去中心化基础架构与分布式计算范式,是新一代人工智能研究领域的热点技术。区块链可以实现以安全、可信、不可篡改的方式实现交易,具有共享账本、智能合约、隐私保护、共识四个核心要素,进而对社会经济产生影响,如实现去中心化自治,产生去中介化信任,出现可编程智能合约,重塑社会协调方式,保护数据安全等。
上海交通大学吕宝粮教授基于“涌现”概念,提出未来的通用人工智能应该是逻辑智能和情感智能的有机结合。他认为,目前关于情感智能的研究尚处于情绪识别的初级阶段,还没有一个统一的机器学习框架可以让机器人像人类一样从小到大不断地提升自己的智商和情商。未来机器人将具有人类的情感。而一旦机器人具有了像人类一样的情绪,机器人将能更自然地与人进行交互并为人类提供更多的服务,但同时也会带来许多伦理和法律问题。为了解决这些问题,需要构建机器情感的伦理道德和风俗习惯。
中国科学院科技战略咨询研究院李真真研究员围绕“人工智能技术、伦理与法律问题及治理”这一主题,从“社会生态”和“人机关系”两个视角解析了人工智能的技术、伦理与法律问题。她指出社会的智能化过程,对原有的隐私、责任等价值及其应对策略带来了多方面的挑战,需要不断地对人工智能带来的影响进行伦理评估,以保障相关政策和法律的及时跟进。她认为人工智能的研究应当回到冯•诺依曼的路径,以博弈统摄机器学习,使AI成为可解释、可理解的。从而实现智能机器与人类的社会交往。针对人工智能的治理,她认为需要技术、伦理、法律等多种手段的配合使用,编写智能机器的道德代码,将伦理和法律要求内置于人工智能系统。
腾讯研究院曹建峰高级研究员从当前的自动驾驶技术发展及监管状况出发,指出自动驾驶相比人类驾驶更为安全,但并非完全免疫于事故,这将给既有责任框架提出挑战。此外,自动驾驶系统必然在现实环境中做出道德决策,如何确保其决策符合伦理,需要跨学科的研究支持。他详细阐述了德、美等国家的无人驾驶汽车管理模式,并且提出,技术发展应当先行,不能因为伦理问题禁止技术发展,但是要注重对于个人权益的充分保护。
围绕本次会议的主题,与会院士及专家学者根据自身学科背景和工作实践经验,以及国内外该领域的研究成果,多层面、多维度地开展了深入而热烈的讨论。共同探讨了人工智能发展中存在的技术、伦理和法律等问题,并提出了诸多有益思考和真知灼见,同时就一些问题形成了共识。第一,对人工智能的发展持乐观与谨慎的态度。与会者一致认为,人工智能发展给人类生活带来诸多好处和便利,同时也给社会管理带来许多挑战。针对失业问题,许多专家认为人工智能不会引发普遍的失业,国际上不同机构的预测数据也没有形成统一的看法。针对人工智能的军事应用问题,多位专家指出不应存在绝对的自主武器系统,自主武器系统应当是一种处于人类的控制之下的、赋能式的、升级性的应用。同时一些专家也指出要警惕人工智能可能带来的隐私、歧视、财富分配等问题以及具有自由意志的强人工智可能带来的挑战。为此与会者认为,应当重视和适时探讨人工智能的边界问题。
第二,正确处理技术发展与伦理、法律之间的关系。多位与会专家指出人工智能的发展事关国家间的竞争战略,在人工智能领域,中国有可能实现从“跟跑”向“并跑”甚或“领跑”的转变,应当加快人工智能的研究,抢占战略高地。同时,人工智能的发展不能抛开伦理和法律,应当意识到人工智能可能带来的各种挑战,完善相关的伦理、法律规则,构建受人类控制的智能系统,使其与人类的规范和价值观相一致相兼容,确保人工智能以增强人类而非替代人类为目的。
第三,积极争取人工智能伦理及技术标准的国际话语权。与会者认为,人工智能伦理规范的研究,应当重视从中国人工智能技术、伦理、法律及社会问题出发,特别要研究本土文化对人工智能发展的影响。更重要的是充分利用东方哲学中丰富的文化资源,主动参与全球人工智能的伦理、法律规则制定,积极开展全球对话,向国际社会阐述中国观点,将中国观点带入相关标准的制定中。
裴刚院士对会议进行了总结,他指出,人工智能的发展对于国家发展非常重要,因此有必要加强伦理研究,以确保我国人工智能快速、有序、健康发展。为此,他提出了几点建议:第一,加强科研人员自身道德修养,倡议全体科研人员向卢永根院士学习;第二,建立人工智能的学术交流网络,充分吸收自然科学、工程技术、人文社会科学等不同领域的专家参与;第三,要重视完善重大科技变革和科技项目中的伦理研究;第四,发挥学会、非政府组织等机构在推动人工智能伦理中的作用;第五,争取人工智能伦理规则的国际话语权;第六,将科研伦理教育纳入到中国教育体系,加强科研后备力量的伦理意识与责任。最后,他再次对会议的组织方、参会的院士、专家表示感谢,同时鼓励与会专家就人工智能的伦理问题开展持续的讨论。
2017, Vol. 7
