2. 中国海洋大学 马克思主义学院, 山东 青岛 266100;
3. 南开大学 中国政府发展联合研究中心, 天津 300071
2. School of Marxism, Ocean University of China, Qingdao 266100, Shandong, China;
3. Joint Research Center for Chinese Government Development, Nankai University, Tianjin 300071, China
2023年以来,以ChatGPT为代表的新一代生成式人工智能产品引发社会热议。ChatGPT全称“Chat Generative Pre-trained Transformer”(含义为“预训练的聊天生成转换器”),本质上是一种生成式人工智能聊天机器人程序。依靠大语言模型(Large Language Model,LLM)的技术支撑,ChatGPT主要以语言文本形式与人类用户进行信息交互,基于巨量语料库的前期预训练,其能够快速完成文本生成、自动问答、文章摘要等任务。与传统AI(Artificial Intelligence)聊天盒相比,ChatGPT凭借其强大的文本输出功能和近似人类的语言交流能力,颠覆性地提升了人机对话条件下的工作和学习效率,所以一经问世,其就被广泛应用并大大提升了文案翻译、代码编程、论文大纲撰写、日常咨询等领域的工作实效①。可以说,以ChatGPT为代表的生成式人工智能(包括LLaMA、文心一言等)标志着一个新的人机对话时代的到来,其快速发展和广泛应用正全面而深刻地形塑着整个人类社会。
① 有数据显示,到2023年1月末,ChatGPT的月活用户已突破1亿,成为史上增长最快的消费者应用。详见 https://www.thepaper.cn/newsDetail_forward_21816528。
伴随着这一全方位形塑过程,人类社会本身也正面临着一系列因其深刻影响而带来的全新风险和挑战,由生成式人工智能广泛应用而引发的一系列社会风险问题已经引起了学界的广泛关注。综观已有研究,围绕意识形态风险、法律风险、经济风险等社会风险领域,学界已经形成了一些富有前瞻性的研究成果。一是关于生成式人工智能所引发的意识形态风险。有学者认为,由于“技术利维坦”、智能算法“把关人”、资本技术操控的共同作用,ChatGPT类生成式人工智能将会诱发意识形态撕裂、意识形态操纵、意识形态解构等多重意识形态风险的产生[1];也有学者认为,生成式人工智能存在不能准确分辨信源真伪和不能充分理解语言内涵这两大瑕疵,由此容易生成各类错误内容,这将造成思想政治教育对象对主流意识形态的错误认知[2]。二是关于生成式人工智能所引发的法律风险。学者们普遍认为,生成式人工智能应用过程中所存在的法律风险主要包括知识产权争议、数据安全问题、有害内容生成以及对学术伦理规范的挑战等[3-6]。三是关于生成式人工智能所引发的经济风险。学者们主要聚焦于ChatGPT等广泛应用所导致的劳动力市场冲击、市场垄断问题、企业数字化转型障碍、与发达国家的经济发展技术势差扩大等一系列风险[7-9]。
综合而言,伴随生成式人工智能全方位形塑人类社会,其所引发的一系列社会风险问题覆盖面广、复杂程度高、影响深远,因而正成为学术界关注的重点。但也正是由于这一系列社会风险问题是全新且是全面、深刻的,因而仍旧有大量由其所引发的社会风险问题学界研究尚未充分涉足。特别是针对生成式人工智能与之前人们所普遍认知的人工智能最大的区别——人机对话模式,这一与传统“人人对话”具有巨大差异的舆论生成模式,作为海德格尔所言“语言是存在的家”下的“家”,会怎样以人机对话生成网络舆论的方式形塑人,在这一过程中又会给社会本身带来怎样深刻影响和风险,有待进一步深入研究,从而为巩固壮大ChatGPT时代网络空间主流思想舆论,塑造主流舆论新格局寻找新路径。
二、人机对话下“技术语言”的特质从AI的终极发展目标即通用人工智能来看,生成式人工智能所生产的语言至少要在一定程度上实现对人类语言本质的模仿。若以一种哲学的视角审视人类语言的本质,海德格尔认为,“语言是存在的家。人以语言之家为家”[10]358。然而,当前以ChatGPT为代表的AI语言却并非对人类语言本质的单纯模仿。作为一种技术架构下的计算机语言,它将技术逻辑嵌入人类语言这一“存在的家”中,从而在某种程度上实现了对人类语言本质的改造。在这一过程中,人的使用和理解不再是语言组织方式的主要依据,作为技术架构的计算机的运行方式和生产方式反而决定了“说”语言的方式[11]。海德格尔在《流传的语言与技术的语言》中将这种经技术改造的语言称作“技术语言”,与之对应的是,作为未经技术改造过的交往口语是人类操持的“流传语言”。可以说,在当前生成式人工智能时代的语境下,被AI改造后的“技术语言”呈现出一系列特质。
(一) 时间标签:从“将来”到“过去”在海德格尔看来,语言把人的生存领会、各种情绪和日常生活勾连在一起,作为自身完整的生存展开状态呈报出来。简单来说,人要通过语言说出自己是怎样生存的。在这一说的过程中,由于说的方式要从对周围世界的操劳议论开始说起,所以语言从形式上表现为“当前化”的。简言之,至少看起来回答了当下面临的问题。当前人机对话中的“技术语言”显然也能做到“当前化”,因为ChatGPT的自然语言处理模型在人机对话中一定程度上“理解”了用户的提问,能使用通俗文本,以词语续写的方式生成回答,从而一定程度上解决了用户提问时所面对的问题。但从“流传语言”与“技术语言”的“当前化”的前提来看,两者又有着差异。
“流传语言”的“当前化”以人类在面向将来时的准备活动为前提。海德格尔指出,“话语就其本身而言就是时间性的”[12]397,所谓的时间性是指人始终是面向将来的超越性存在,即人具有一种主动面向未来、面向未知的积极本质,能够在创造生存条件的具体活动中,把将来的可能性转化为当下的现实性。基于此,“流传语言”是“要用人来办这件事,要从保持在用的语言中重新去说世界而且这样把犹未见到的东西显相出来”[13]267。换言之,人是在面对生存世界的种种可能性的条件下才说出了“流传语言”,通过“流传语言”预测和筹划着生存世界下一秒将发生的事,由此做到“流传语言”的“当前化”。类似于雷蒙德·卡特尔(Raymond Bernard Cattell)所提出的“流体智力”概念,可以说对语言的流传实际是一种在实时中解决问题的能力[14]。由此,“流传语言”具有“将来”的时间标签。
如果将“流传语言”视作“将来时”的语言,那么反观ChatGPT所生成的语言,其就具有一种鲜明的“过去时”特征。不同于“流传语言”的“当前化”以人面对生存可能性时的筹划自身为前提,“技术语言”的“当前化”则以AI面对用户提问时的续写式应答为前提。我们知道,为了完成与用户的流畅对话,ChatGPT需预先掌握人类的知识,这些知识来源于网页、书籍和维基百科等4990亿字符的庞大语料库[15];在此基础上,ChatGPT通过自动调节语言模型中参数的海量训练,才能使模型在面对用户提问时具有符合日常语言习惯的文本续写能力。而在这一过程中,首先,针对未开放联网插件的版本(如ChatGPT-3.0),有学者指出,其无法对2021年之后的新闻事件进行有效讨论,这势必会造成其生成的文本与现实情况脱钩,更遑论用户能从这些文本中感悟到面向将来的可能性[16];其次,即便是能够使用联网插件的ChatGPT版本(如ChatGPT-3.5、GPT-4、GPT4-Turbo等)可以就近期发生的事件进行归纳总结式的回答,但其实际上仍是用过去训练的语料回答当前用户的提问。此外,在联网版ChatGPT的知识获取训练中,其经过训练后所获取的知识被储存在模型中每一个神经元之后,这些参数和知识便不再更新。因此,ChatGPT虽然可以针对人机对话过程中用户的不同提问习惯给出不同的答案,但实际仍处于一种“静止”而非“面向未来”的状态。由此可见,ChatGPT所生成的“技术语言”是封闭的、滞后的,是一种带有“过去”时间标签的语言。
(二) 主体面相:从“有脸”到“祛脸”一直以来,“流传语言”的普遍使用使得人类的主体面相呈现出“有脸”的特征。徐英瑾则认为,这一“脸”是人际交往中普遍有效的“现象学界面”,其在交流过程中能够起到控制信息的接收和外流的作用,人既要通过自己的脸将一部分内部情感信息表达出来,同时又能随意将内心的一部分遮掩起来,因此,人脸具有“提示-遮蔽”的辩证性[17]。这一点,正如我们在与他人通过书信、电报打交道时,虽然只接触到文字这种“无脸”形式的“遮蔽性信息”,但却可以透过其中的文笔和字迹等“提示性信息”来想象对方的年龄、性格、态度甚至是德性状态。换言之,在一直以来“流传语言”所建构的交流中,即便对方真实的脸面被他的语言行为部分地掩盖,我们也会在内心给对方构造起一张活生生的脸,以便制定与对方交流的具体策略。在这一过程中,由于人们各自所处的社会环境,尤其是其所属的社会角色分工的不同,导致每个人的脸向他人提示多少信息、遮蔽多少信息也是不同的,所以基于语言交流而塑造起的人脸呈现出千人千面的情形。由此,“流传语言”的交流方式实际上是具有丰富样态的,不同的脸面相互之间会采取不同的态度,这正如海德格尔所认为的那样,在共在中围绕话语的相互倾听,可能具有“追随、同道”等正面样式,也可能具有“不听、反感、抗拒、背离”等反面样式[12]191。总之,“流传语言”使得每一个个体在与他人的交流中,总是“有脸”的,人与人彼此相互交流的过程背后是一种展示个性化面孔的过程。基于此,人与人之间的语言交流才具有了多样化的语义、语境等特征。
反观ChatGPT下的“技术语言”,在基于其的人机对话过程中,使用者的主体面相愈发走向“祛脸”化。一方面,从ChatGPT自身来看,其并不具备“脸”这一“现象学界面”的功能。在人机对话中,ChatGPT是无法真正做到“说谎”或“隐瞒”其态度的,其“思维”过程是透明化的,通过文本续写而“说话”的过程就是其思考的过程。例如,当用户在提问时预先下达了“分步输出”的指令后,ChatGPT就会将其分步解答问题的“思维”过程展示出来,这一过程被称作思维链(chain of thought),即将一个复杂问题分解为若干小问题再逐步解决,而思维链正是一种在文本展示层面上对人类心智的透明化模仿。因此,可以看出ChatGPT并不具备“脸”的“提示-遮蔽”这一辩证性作用。另一方面,使用者在ChatGPT下的人机对话中将会逐步走向人脸的“模糊化”。我们知道,ChatGPT所谓的预训练过程,指的是预先进行的在巨型语料库基础上的初始训练,其不仅包括通过对语义模型训练,以输出符合日常语言习惯的文本,还包括对具有暴力、色情等消极内容的有害文本的过滤训练,从而输出相对中性、正面的内容。这一过程涉及大量人工标注工作,这就使得ChatGPT的语言学习能力依赖于对特定人群语言偏好的特定记录和反馈。然而,由于承担这一任务的人类标注员文化素养参差不齐,数量有限,处在相对恶劣的工作条件下(如时薪低、易受心理创伤等)[18],其工作本质上是一种受压迫的、流水线式的重复性劳动,这就造成了预训练过程中相关标注结果的格式化和无个性。因此,事实上,当前ChatGPT下的语言模型,其本质是基于有限人类个体谈话方式的“统计学平均机制”[17]。换言之,当前人机对话中ChatGPT的文本输出,是有赖于对有限个体“脸”的评价结果“最优解”及“平均值”的机械复制和总体再现,这就使得一直以来“流传语言”下的人脸个性变得模糊化。这表明,即使ChatGPT具有根据不同用户的言语习惯调整自身回答的能力,但“技术语言”下的人机对话式交流仍会一定程度上淡化不同人脸之间应具有的复杂特点或个性。也就是说,在ChatGPT时代的人机对话中,我们看到的往往是社会关系的“平均状态”,在其背后所暗含的正是使用者被AI“祛脸”的过程。
(三) 内在功能:从“讲述”到“呈现”一直以来,“流传语言”作为一种未经技术改造的语言,其内在功能并非单纯将语词作为信息“呈现”出来,而是注重对事物内涵的“讲述”[11]。具体而言,以“讲述”为内在功能的语言,其始终能比词语符号本身指向更“多”事物,蕴含更为丰富的经验内涵和故事,即“讲述”的语言是通过词语来讲述词语背后的“隐喻”或“想象”的内容。也就是说,一直以来人“讲述”语言,无不是在一定程度上对隐喻的行使,即通过某一事物将自己的经验和理解投射到另一类事物上去。而与此同时,即便再复杂的隐喻概念也需要一个经验基础,即作为语言讲述者的人类如不处在活生生的心理状态下,是无法灵活调动语境信息来确定语言在讲述或隐喻什么的。这正如马致远若不处于凄苦旅行心境,便无法作出“古道西风瘦马”佳句。在“讲述”背后所承载的,恰是人类活生生的心理结构。由此可知,“流传语言”从功能上讲,其更侧重于对事物的“讲述”。“讲述”不仅是一种“指东打西”式的隐喻,更是一种对人类主体心理结构的描绘,其本身是内涵丰富的、具有故事性的。
而正如海德格尔所言,“一首诗原则上不能用计算机编制程序”[13]266。当没有了“流传语言”背后的隐喻和心理结构,语言所做的,就只是在服从机器生产方式的前提下,对信息的一种单纯展示和通报——“呈现”。ChatGPT所生成的“技术语言”,其内在功能便是如此让“呈现”优于了“讲述”。首先,ChatGPT在聊天界面所展现的文本生成机制,是在用户给定输入时,模型通过生成概率预测下一词,以此从头到尾依次生成文本,最终形成完整的句子、段落或文章。换言之,对ChatGPT而言,对用户的回答并非“讲述”故事,而是受制于模型本身的工作方式以完成的特定对话任务——将字词信息按统计学概率组合为句、“呈现”给用户。其次,当前ChatGPT所涌现出的统计学之外的能力,包括临时学习的能力(如要求其纠正回答中的某个学术词汇)、具有没有训练过的知识(如复杂的数学运算和语言游戏)、不存在的知识(如“林黛玉倒拔垂杨柳”)等,这些都是依赖语言模型对注意力编码层中某些特定神经元的解释,从而获取对词语符号的不同含义的理解,最终基于对词语上下文的综合分析所生成的新的回答。而在此机制下,只有尽可能扩大语言模型规模,才能提升其理解一些抽象词汇特定含义的准确率① 。从中我们可以看出,ChatGPT涌现出的文本创意能力,只有在自身大规模计算基础上才能够被获得,而这与人类“讲述”语言时所付出的有限认知资源相比,只是一种被动的、“大力出奇迹”式的“呈现”。最后,ChatGPT本身是一款虚拟聊天软件,其作为技术产品的本质就决定了其无法做到在特定语境下与人类用户共情,因而其生成的人机对话就缺失相应的经验基础。也就是说,ChatGPT不具备人类的肉身、五感,无法像人类一样产生特定的情绪或心理状态,也就难以根据使用者心境的不同,来确认人机对话语言中所牵涉的真实含义,更遑论能够实现对语言的故事性“讲述”。总而言之,ChatGPT所生成的“技术语言”,相对于“流传语言”的“讲述”功能,其内在功能更侧重将语言作为信息“呈现”而非“讲述”给用户。而这从长远来看,随着“人类讲述故事能力减弱,信息呈现能力增强,整个世界图景也在这种信息呈现中失去了内含丰富经验的故事形态,而只剩下碎片化的信息存在样态”[11]。
① OpenAI公司发现,当语言模型超越一定的规模阈值,便会产生涌现能力。详见OpenAI的论文Emergent Abilities of Large Language Models。
三、人机对话下网络舆论极化风险的生成路径基于前文的阐释,不论是“过去”式的时间标签、“祛脸”化的主体面相还是内在功能的“呈现”倾向,ChatGPT所生成的“技术语言”,其样式和特性是由大语言模型下的技术可能性而非人的可能性决定的。因此,尽管当下人机对话已愈发普遍,但是在当前与ChatGPT的人机对话中,我们仍无法认为真正实现了“流传语言”与“技术语言”二者的无缝融合——二者在一定程度上仍旧处于相互对立与割裂之中。这种对立和割裂,就可能使人机对话的参与者陷入被AI生成的“技术语言”宰制的风险之中;遭到技术规制的“仪式化”的“技术语言”,将会以迎合的方式弱化人类“流传语言”的批判性,从而放大“常人”意见在生成式人工智能使用者中的传播规模与宰制效果。与此同时,由于手握语言大模型的厂商具有逐利性,他们容易对有效带来流量的极端化“常人”意见刻意纵容,最终在技术和资本的共同助推下,必将引发当前人机对话时代网络舆论的非理性极化风险。
(一) “仪式化”风险:对批判性概念的驯化马尔库塞在《单向度的人》一书中,将管制和消解超越性批判观念的语言称作“仪式化”语言。当前,人机对话下的“技术语言”之所以具有“过去”式的时间标签、“祛脸”化的主体面相和内在功能具有“呈现”倾向这一系列特征,是因为其语言样式是由AI的运作机制规定的。这就表明,在当下前期训练数据的有限性、可控性必然使得“技术语言”被嵌入一种“仪式化”的技术规程。也就是说,生成式人工智能由于受制于自身的技术规则,其就不得不以省略、歪曲的方式模拟人类语言的特性。交互过程表现为这样的状态:面对用户提问时,生成式人工智能所给出的看似具有自明性的回答,实则是将最大宽容和“温和”的概念强行嵌入接受者的大脑,从而使原本“流传语言”中应有的充满矛盾、张力的意义变得平整,其中的批判性内容被消解,相应的信息和内容也被封闭、消解在技术规则所给出的条件范围内。关于这一点,正如马尔库塞所言,“仪式化的概念被赋予了对矛盾的免疫力”[19],人机对话下这种易被接受的、有慑服力的“技术语言”具有按照自己口味不断驯化异己说法的鲜明能力。例如,2023年初生成式聊天AI之所以能一夜火爆,一个很重要的原因就在于其所给予使用者的各种在线“回答”,充分实现了对用户群体的谄媚和迎合;其通过人格化语言,在人机对话中建立了一种充满亲昵感的对话领域,将强加于人的特定观念、事物的标签等巧妙包装为了“专门为您的”的话语,让用户在不自觉中就接受了心灵上的“驯服”。在长此以往的人机对话中,使用者本身的批判话语、批判能力和批判意识必然趋于退化与消解,其对越来越多的来自生成式聊天AI所给予的答案变得愈发倾向于直接信任与全盘接受。
(二) “常人化”风险:对“常人”意见的放大海德格尔将在日常生活中处于庸庸碌碌的平常状态下的此在(人)称作“常人”(das-man),因此那些由“常人”们所带来的,人云亦云、缺乏主见的话语就被称为“常人”意见。而在当前人机对话下“仪式化”语言通过谄媚所构造的话语领域中,被消解掉批判性概念的话语就会在不断的毫无批判地接受和以讹传讹过程中被再生产为“常人”意见。
首先,当前的人机对话过程也是使用者被ChatGPT不断“祛脸”的过程:ChatGPT所生成的“技术语言”并非对全部“流传语言”果实的分享,毕竟对于特定事件的议论,往往存在着沉默不发声或者作为少数派话语的部分,那些网络中充斥的大量语料,其实是普遍存在的群体无理性现象的显现,相当一部分正是由喋喋不休的“常人”意见所构成的,而ChatGPT的预训练本就是基于网络、书籍与维基百科等语料库。因此,ChatGPT所生成的“技术语言”,恰恰是对大量“常人”意见的再生产的结果。
其次,“技术语言”自身所具有的“过去”这一时间标签特征表明,生成式人工智能下的“技术语言”与实时情况之间是存在一条显而易见的鸿沟的。从历史唯物主义的角度看,若用过时几年的(尽管在“彼时”是流行的)语言来解释世界,则有可能在一定程度上与事物“此时”的实际情况发生脱离,而“彼时”的、那些无法经受实践检验的看法,恰恰由于其在“彼时”的流行,成为了数字空间中被ChatGPT大语料训练频繁使用、被其所接受、所传递的“常人”意见。此外,“技术语言”自身过度侧重“呈现”的内在功能特征,更使其以一种“闲谈”(海德格尔语)的方式加剧了“常人”意见的传播。当“呈现”只关注“传达了什么”而忽视语言与所谈之物之间的源始、深刻联系时,这种只注重外在形式的AI语言与在探讨事物时“知其然而不知其所以然”的“常人”意见恰好有着天然的契合,必然成为助长其大规模传播、使用的温床。因此,基于以上阐释,我们可以清楚地看到,在当前的人机对话中,生成式人工智能下的“技术语言”存在着过度放大“常人”意见的风险,那些在网络议题讨论中被跟风传播的、片面的、不求甚解的话语将以被AI语言同语反复的方式,在公众舆论中得到更广范围、更大程度地传播和接受。
(三) “资本化”风险:对非主流极化思想舆论的纵容作为一种善于用“仪式化”语言谄媚用户、向用户灌输“常人化”话语的机器体系,以ChatGPT为代表的新一代生成式人工智能,其本身仍是作为现代资本主义生产的组成部分而出现的。也就是说,凭借能够生成创意文本的大语言模型来逼近通用人工智能、以实现人机之间的无缝交流,其实并非ChatGPT技术拥有者在当前社会历史条件下的本质性任务,其本质任务仍服从资本增殖的强制性逻辑。在当前各类网络舆论议题中,凡是愈夸张、露骨、极端化的说辞,就愈能博人眼球,愈能引发海量流量支撑。“一旦有适当的利润,资本就胆大起来”[20]871。因此,在“流量为王”的理念下,掌控数字新技术的大企业就会更倾向于对这些非主流极端网络舆论(如前所述,这样的舆论往往就是“常人”意见)“推波助澜”。AI语言下的人机对话,相对之前的各类信息技术手段,其自身最大的优势,就在于能够更直接地以围绕日常语言的“对话”方式,实现对网络舆论、观点的宣扬与传播,由此也逐渐成为资本纵容非主流极化网络舆论的不二选择。关于这点,正如本雅明曾经指出的那样,文字“如今被广告无情地拖到大街上并且屈从于混乱经济生活中残酷的他律性”[21]。有些自媒体利用AI生成各类耸人听闻的“虚假消息”刻意制造舆论、赚取流量和热度,有些机构蓄意投放虚拟数字人、炮制“AI剧本”等在网络社区中刷取流量、左右舆论的现象,正是对这一点的鲜明写照和印证。
综上所述,由于人机对话中的“技术语言”趋向于驯化批判性概念和放大“常人”意见,在资本逻辑的宰制下,生成式人工智能时代人类语言的本真性易被技术逻辑、资本逻辑改造,生成式人工智能人机对话参与者观念行为也将被左右,最终带来大规模的网络舆论极化现象。具体而言,根据本杰明·李·沃尔夫(Benjamin Lee Whorf)的语言决定论,“语言决定思维”[22]i,若长期使用某一种语言,则使用者自身的思维认知模式必将受到该种语言的影响和制约。这正如电影《降临》(Arrival)中的桥段,当人类习惯了使用非线性叙事的外星语言与外星物种交流时,其自身的思维最后也会受到该语言的影响而变得非线性。由此便可以推测,伴随着生成式人工智能应用范围的逐步扩大,人机对话中所使用的“仪式化”和“常人化”的“技术语言”,会促逼着人类用户的思想观念愈发趋向于缺乏批判性且“常人化”。此时,面对各类网络热点舆论,任何一种看似“自圆其说”实则经不起实践检验的“常人”意见,都可能会被在人机对话中缺乏批判性、为“仪式化”语言所“驯服”的“技术语言”使用者轻易且全盘地接受,从而使得资本为流量而大肆纵容极端化却抓人眼球的“常人”意见时,迅速触发网络舆论的“集体链式反应”,大规模网络舆论极化现象随之出现。
最终,在生成式人工智能技术下AI语言“煽风点火”、人类用户“趋之若鹜”以及资本逐利“推波助澜”的层层交互作用下,一系列极端化、错误虚假的网络舆论就有可能大规模破坏网络舆论生态,从而给网络意识形态安全等带来巨大风险。这正如习近平总书记所指出的那样,“正面优质的网络内容跟不上,错误虚假甚至有害的东西就会传播蔓延”[23]53。因此可以说,全方位审视新一代生成式人工智能可能诱发的网络舆论极化风险,对于在当前贯彻落实习近平总书记指示精神,巩固壮大网络空间主流思想舆论具有重大理论和现实意义。
四、对网络舆论极化风险的应对之策在与ChatGPT的人机对话过程中,“技术语言”的使用趋向“仪式化”“常人化”和“资本化”,其实质是通过对使用者批判性思维的消解与个性化思维的抹平,在资本逐利逻辑的引导下对极端却抓人眼球的“常人”意见予以纵容与放大,最终以促逼使用者认知和言行的方式引发了网络舆论极化风险。为消解这一严重影响网络意识形态安全的风险,应以通过拓展大模型训练语料库规模,让“沉默者发声”;利用“专家系统”传统,发挥主流意识形态核心观点在人机对话中的领航定向作用;在统筹生成式人工智能发展和安全的基础上,建立健全相关针对性法律制度的“三位一体”的方式,切实在生成式人工智能技术愈发普及与大规模应用的当下,进一步巩固与壮大网络空间主流思想舆论,以推动网络强国建设取得新实效。
首先,应基于更大规模的语料库进一步训练生成式人工智能,以实现生成式人工智能人机对话中的“沉默者发声”。此处的“沉默”,是海德格尔所谓的“沉默”——作为一种此在(人)在言谈中的本真状态,即对事物怀有真正个性自觉的领悟,而非在“常人”意见号令下被动地接受信息。而正如前文所述,由于互联网空间中“群体无理性”的常态化,当下ChatGPT所获取的语料资源,恰恰主要来自这一“群体无理性”下显性的“常人”意见,而非相对隐性的、来自沉默者的“沉默信息”。然而,这些被遗漏的“沉默信息”,正是消解生成式人工智能下“仪式化”“常人化”技术语言带来的网络舆论极化风险的关键。关于这一点,正如海德格尔所言,“为了能沉默,人必须有东西可说”[12]192。也就是说,在海德格尔那里,“沉默”中的人比夸夸其谈的“常人”对事物具有更深邃的思考和领悟。因此,虽然“沉默者”所给予的“沉默信息”不一定是正确的,但却是区别于“常人”意见的,这些“沉默信息”是自觉、个性多元的批判性话语。因此,在当下利用ChatGPT所进行的人机对话中,通过拓展大模型训练语料库规模,将在互联网空间“群体无理性”下相对小众的“沉默者”的“沉默信息”纳入语料库、让“沉默者”“发声”,将能够在恢复批判性、理性意见与个性话语的基础上,形成对语料库中“常人”意见的有效对冲,避免人机对话过程中“常人意见茧房”的形成,从而在避免人机对话参与者单向度被技术语言“驯服”与全盘接受“常人”意见的前提下,规避技术语言使用下“仪式化”与“常人化”所引发的网络舆论极化风险。
其次,利用“专家系统”传统,发挥主流意识形态核心观点在人机对话中的定向领航作用。徐英瑾就曾针对人工智能时代的数据隐私权问题,提出了重新激活“专家系统”传统的应对之策。在他看来,与基于神经网络的深度学习式AI进路不同,“专家系统”的技术原理是:为AI系统导入相关领域的、达到专家级水平的特定知识与经验,从而在此基础上,通过逻辑或统计学的方式推演出在特定问题求解语境中对于上述知识的迁移运用方式[24]177。面对ChatGPT时代AI语言使用过程中人机对话所引发的网络舆论极化风险,我们可以借鉴这一传统,形成对技术语言“仪式化”“常人化”倾向的有效应对。具体而言,在“仪式化”“常人化”技术语言极易诱发网络舆论极化风险的情形下,可以在AI的预训练阶段,通过对专家意见的“置顶”而形成一种“语料训练等级”,并以此训练等级确定之后的人机对话输出等级,从而发挥网络空间主流思想舆论在人机对话中的积极正向引导作用,以规避“常人”意见尤其是非理性却抓眼球、极端化的“常人”意见通过人机对话对生成式人工智能使用者言行的促逼,从而形成对极端化网络舆论迅速发酵、冲击网络意识形态安全这一严重风险的有效消解,进一步实现ChatGPT时代网络空间主流思想阵地的巩固和壮大。
最后,在统筹生成式人工智能发展和安全的基础上,建立健全相关针对性法律制度。生成式人工智能作为新型的生产工具,在短时间内确实带来了诸多行业生产效率的大幅提升,但是也正如当下我们已经看到的那样,在其飞速发展的现状下,由于资本逐利逻辑的驱动,诸如网络舆论极化等一系列负面问题与风险也正逐渐显现。因此,《生成式人工智能服务管理暂行办法》(2023年8月15日起施行)所彰显的注重发展、兼顾安全的立法宗旨[25],就要求我们在面对由生成式人工智能所引发的网络舆论极化风险问题时,以人工智能促进我国网络空间主流思想舆论巩固壮大为主要目标,在统筹发展与安全的基础上,建立健全相关法律制度体系。一方面,应以维护网络空间舆论安全为首要原则,规范生成式人工智能应用,完善对生成式人工智能的监管,以制度的方式限制和约束人机对话中以“技术语言权力”为代表的资本宰制下的技术权力,规避因技术语言“资本化”所带来的网络舆论极化风险。在相关法律法规中,应明确生成式人工智能的适用范围、内部规范与外部监管要求,要求其服务提供者针对大模型依法开展前期预训练、优化训练数据,严格规范对网络舆论极化风险的针对性管控。另一方面,要通过相关制度举措,支持、引导企业对生成式人工智能技术的创新应用,在生成式人工智能的良性发展与创新下,更好助推网络空间主流思想舆论传播新格局的形成。在相关法律规范和政策制度中,应积极鼓励、引导生成式人工智能技术在各行业、各领域的创新应用,尤其针对当前生成式人工智能发展给网络舆论生态带来的深刻变化,在具体制度建构中,积极推动各类企业在技术创新、数据共享、转化应用、风险防范等方面互利协作。在技术层面,应充分利用生成式人工智能对人机对话参与者的形塑作用,以一种技术“推手”的方式助推参与者对网络空间主流思想舆论的接受与传播,通过技术的方式优化网络舆论引导模式,从而在用好、用活生成式人工智能的过程中,最终形成ChatGPT时代主流思想舆论新格局。
五、结语放眼整个人工智能的发展历程,不难发现,以ChatGPT为代表的生成式人工智能,其对人类自然语言的模仿能力的确已经将我们引向一种人机关系的新常态,表现为一种基于日常语言的人机对话模式,而这也标志着人类离通用人工智能的目标又近了一步。但是,当前ChatGPT所生成的技术语言,会通过驯化批判性概念和放大“常人”意见的方式,同时在资本逻辑的驱动下,给社会带来潜在的网络舆论极化风险。因此,对于以ChatGPT为代表的新一代生成式人工智能,我们既要对其发展保持积极开放的态度,也要正视其可能引发的新问题、新风险。
一方面,在人工智能发展的这一历史性变革时期,我们绝不能再以僵化或单纯对立的视角来审视人机关系,而应学会在一定程度上将人机关系等同人际关系来看待。也就是说,应至少在一定程度上怀有以下积极的展望:机器能够与人类进行无缝的沟通交流,且机器与人类能够在理性、情感、伦理上共同基于同样的逻辑[26]107-108。这就要求我们在人机对话领域,始终积极探索一条“流传语言”与“技术语言”的辩证统一之路——坚持莱布尼茨式的构建“普遍文字”的夙愿。另一方面,我们也应充分认识到,面对当前网络空间思想舆论鱼龙混杂、泥沙俱下的复杂局面,新一代生成式人工智能在人机对话的过程中,可以成为网络空间主流思想舆论的重要“放大器”,并且成为ChatGPT时代我们贯彻落实好习近平总书记所要求的“切实让新技术新应用新业态为正面宣传赋能”[23]56的关键所在。因此,切实发挥好生成式人工智能对网络空间主流思想舆论的引导与宣传,应以习近平总书记所要求的“坚持正能量是总要求、管得住是硬道理、用得好是真本事”[23]44为原则,在生成式人工智能所构造的人机对话领域内,通过拓展大模型训练语料库规模、利用“专家系统”传统、建立健全相关针对性法律制度的“三位一体”的方式,实现对生成式人工智能技术创新性且良性的应用,切实在生成式人工智能技术愈发普及与大规模应用的当下,进一步巩固与壮大网络空间主流思想舆论,以推动网络强国建设取得新实效。
[1] |
王延川, 赵靖. 生成式人工智能诱发意识形态风险的逻辑机理及其应对策略[J]. 河南师范大学学报(哲学社会科学版), 2023, 50(4): 1-7. |
[2] |
王少. ChatGPT介入思想政治教育的技术线路、安全风险及防范[J]. 深圳大学学报(人文社会科学版), 2023, 40(2): 153-160. |
[3] |
郭小东. 生成式人工智能的风险及其包容性法律治理[J]. 北京理工大学学报(社会科学版), 2023, 25(6): 93-105, 117. |
[4] |
张欣. 生成式人工智能的数据风险与治理路径[J]. 法律科学(西北政法大学学报), 2023, 41(5): 42-54. |
[5] |
舒洪水, 彭鹏. ChatGPT场景下虚假信息的法律风险与对策[J]. 新疆师范大学学报(哲学社会科学版), 2023, 44(5): 124-129. |
[6] |
侯利阳, 李兆轩. ChatGPT学术性使用中的法律挑战与制度因应[J]. 东北师大学报(哲学社会科学版), 2023(4): 29-39. |
[7] |
吕健, 陆宣. ChatGPT为劳动者带来的机遇、挑战及其应对[J]. 当代经济管理, 2023, 45(12): 1-8. |
[8] |
冯涛, 董嘉昌, 李佳霖. ChatGPT等生成式人工智能对我国经济高质量发展的双重影响及其应对[J]. 陕西师范大学学报(哲学社会科学版), 2023, 52(4): 44-54. |
[9] |
李颖. 生成式人工智能ChatGPT的数字经济风险及应对路径[J]. 江淮论坛, 2023(2): 74-80. |
[10] |
海德格尔. 海德格尔选集[M]. 孙周兴, 译. 上海: 生活·读书·新知上海三联书店, 1996.
|
[11] |
夏莹. 机器语言批判[J]. 探索与争鸣, 2023(6): 40-48, 177. |
[12] |
海德格尔. 存在与时间[M]. 陈嘉映, 王庆节, 译. 北京: 生活·读书·新知三联书店, 2014.
|
[13] |
海德格尔. 熊译海德格尔[M]. 熊伟, 译. 上海: 同济大学出版社, 2004.
|
[14] |
MERRIFIELD P, CATTELL R. Abilities: their structure, growth, and action[J]. American Educational Research Journal, 1975, 12(4): 516-521. |
[15] |
BROWN T, MANN B, RYDER N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020, 33: 1877-1901. |
[16] |
徐英瑾. "常人""自欺"与聊天软件[J]. 社会科学战线, 2023(4): 47-56. |
[17] |
徐英瑾. ChatGPT时代我们的"脸面"何在——多维视野下的颜面现象学[J]. 探索与争鸣, 2023(2): 55-64, 178. |
[18] |
PERRIGO B. OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic[J/OL]. Time Magazine(2023-01-18)[2023-08-01]. https://time.com/6247678/openai-chatgpt-kenya-workers/.
|
[19] |
马尔库塞. 单向度的人: 发达工业社会意识形态研究[M]. 刘继, 译. 上海: 上海译文出版社, 2008.
|
[20] |
中共中央马克思恩格斯列宁斯大林著作编译局. 马克思恩格斯文集: 第五卷[M]. 北京: 人民出版社, 2009.
|
[21] |
本雅明. 单向街[M]. 陶林, 译. 北京: 西苑出版社, 2018.
|
[22] |
沃尔夫. 论语言、思维与现实——沃尔夫文集[M]. 高一虹, 译. 北京: 商务印书馆, 2012.
|
[23] |
中央网络安全和信息化委员办公室. 习近平总书记关于网络强国的重要思想概论[M]. 北京: 人民出版社, 2023.
|
[24] |
徐英瑾. 人工智能哲学十五讲[M]. 北京: 北京大学出版社, 2021.
|
[25] |
中华人民共和国国家互联网信息办公室. 鼓励新兴技术健康发展探索人工智能治理法治路径[EB/OL]. (2023-08-29)[2024-03-26]. http://www.cac.gov.cn/2023-08/29/c_1694965943875107.htm.
|
[26] |
成素梅. 人工智能的哲学问题[M]. 上海: 上海人民出版社, 2019.
|