摘要:生成式人工智能的出现与发展,为计算政治学带来崭新的发展图景。生成式人工智能生成能力、仿真能力和泛化能力的优势可以赋能计算政治学研究方法,启发政治学研究议题。在研究方法层面,生成式人工智能能够为政治计算、社会模拟和互联网实验的数据处理、仿真建模、生成研究工具等提质增效,具备不同于既往人工智能技术的优势;在研究议题方面,生成式人工智能不仅是智能治理领域的新兴研究主题,也可以与国家—社会关系、政治行为、政治心理等经典政治学议题对话,从计算政治学角度丰富对这些议题的理解。然而,生成式人工智能在技术方法和伦理层面还面临局限和挑战。未来将生成式人工智能融入计算政治学研究可以从研究方法、研究要素和理论对象三个角度出发。
一、引言
21世纪,信息技术、互联网和大数据迅速发展,带来了许多学科的新变革。在社会科学领域,计算社会科学(Computational Social Science)日渐兴起,社会科学的诸多分支学科逐步探索出与计算科学融合的交叉学科,如计算社会学、计算政治学、计算经济学、计算传播学等。计算政治学(Computational Political Science)是一门基于海量多源大数据、庞大的算力和强大的算法,运用机器学习、数据挖掘等计算社会科学研究方法研究政治现象的一门学科。2024年1月,国务院学位委员会第八届学科评议组、全国专业学位研究生指导委员会编修了《研究生教育学科专业简介及其学位基本要求(试行版)》,将计算政治学列为政治学二级学科。
生成式人工智能(generative artificial intelligence,GAI)的出现是近年来计算科学的发展结晶与热点。2022年11月,基于GPT-3.5模型的聊天机器人程序ChatGPT面世,掀起了生成式人工智能的研发与应用浪潮。在此背景下,政治学界围绕生成式人工智能的核心特性、拓展应用与潜在影响展开了一系列讨论,包括可能产生的政治和社会后果、模型隐含的政治立场、现实治理应用的可能性,等等。
人工智能与计算政治学关系密切,它是计算政治学所使用的重要工具。生成式人工智能作为人工智能划时代的突破成果,其强大的生成能力开启了计算政治学研究新的可能。当前已有研究关注生成式人工智能在社会科学领域的总体应用,或是探究生成式人工智能如何作为科研协同者为研究者提供帮助,或是探讨生成式人工智能给社会科学带来的研究主题与范式变革。上述研究为我们理解生成式人工智能在社会科学研究中的应用前景提供了丰富的素材,然而仍有诸多未明之处:其一,作为科研协同者与研究方法的生成式人工智能如何赋能尚需系统论述;其二,作为要素的生成式人工智能所产生的现实与学理影响亦待梳理。基于既有研究,本文将讨论范围设定在计算政治学学科之内,回答如下问题:生成式人工智能如何在方法和主题方面为计算政治学提供助力?它在计算政治学学科中处于什么位置?我们如何利用它开拓新的计算政治学研究?又会面临怎样的挑战?回答上述问题有助于推动计算政治学的发展,开拓更广阔的研究领域。
二、生成式人工智能与计算政治学研究方法
(一)计算政治学:研究范式与方法
根据国务院学位委员会第八届学科评议组、全国专业学位研究生指导委员会的定义,计算政治学是基于唯物辩证法的方法论,综合运用量化、质性和规范研究方法,运用大数据挖掘与分析技术、更贴近复杂现实世界的仿真模拟与实验方法,来研究政治活动及其发展规律的一个二级学科。
从发展史看,计算政治学向前溯源有两大脉络:一是定量研究方法在社会科学研究中的广泛应用,二是大数据的出现所引发的研究范式革新。前者以经典的KKV研究范式为代表,而后者则以图灵奖得主吉姆·格雷(Jim Gray)提出的“第四范式”即“数据驱动型”(data-intensive)范式为特色。随着人工智能的发展与将人工智能引入人类科研工作的探索,以人机协同与人机智能融合为核心特征的智能科学范式(“第五范式”)被提出。计算政治学的研究范式横跨了社会科学研究中长期发展形成的多个范式,可以看作量化分析范式、计算科学范式、数据驱动范式和实验分析范式的结合,并逐步向智能科学范式演进。从机制主义的视角出发,计算政治学结合计算科学的处理技术深入挖掘海量政治数据,揭示政治现象的内在关联、规律及发展趋势,对这些发现进行解释,为理论和现实提供有益的启示。
当前计算政治学的研究方法主要有三种:政治计算、社会模拟与互联网实验。政治计算是一种理论与数据双向驱动的研究方法,以政治学相关领域的理论和经验为基石,借助大数据及处理技术对海量的政治数据进行分析和挖掘。社会模拟的基本理念是将人类社会看成一个由人、诸多子系统、个体行为及其互动组成的特殊复杂巨系统,核心在于精准地模拟人类社会系统的独特特征和动态演变。互联网实验是利用互联网平台和技术进行实验研究的方法,包含两种形式:在线调查实验,即在互联网上发布搭载实验干预的问卷研究;在线随机干预实验,即在互联网平台的人机交互界面中通过操纵界面来进行干预的实验研究。政治计算、社会模拟与互联网实验三种主要研究方法各有优势,但也有各自的缺陷。例如,政治计算的缺陷在于数据质量不高所带来的代表性不足,社会模拟的缺陷则在于数据与参数设置容易不可靠,互联网实验的样本选择可能存在偏误,等等。随着生成式人工智能的发展应用,上述三种计算政治学的主流研究方法的优势将进一步扩大,而其不足则有望加以规避或克服。
(二)计算政治学中的人工智能:方法与应用领域
人工智能是一门专注于模拟、拓展和提升人类智能的技术科学,其核心在于模拟人类智能,使机器能够像人类一样思考、推理和决策,按照实现模拟人类智能的技术可分为基于规则的系统、机器学习、自然语言处理、计算机视觉等。在推广生成式人工智能以前,人工智能技术已经在政治学研究中得到了规模化的应用,这些应用探索拓展了政治学研究的边界,促进了计算政治学的诞生与发展。近十多年来机器学习和自然语言处理已成为政治学研究中最常用的两项人工智能技术,它们作为研究工具服务于特定研究目的,在政治学的不同主题领域下发挥至关重要的作用。
得益于可用数据的大规模扩张,政治学研究者广泛运用机器学习分析海量数据。总体而言,机器学习在政治学及社会科学研究中有三种主要应用模式:数据测量、统计推断与理论发现。数据测量(measurement)层面的应用主要针对数据库的建构。在社会科学中,越来越多研究者从开放的非结构化数据中提取感兴趣的特征进行研究,但处理编码海量非结构化数据成本极高。机器学习(含深度学习)算法可以通过训练将小规模的手工编码推断到更广泛的数据集中,从而大大降低定制化测量的成本。统计推断(inference)层面的应用聚焦于机器学习对因果推断方法的改进。机器学习方法在追求严格反事实(counterfactual)框架与统计显着的基础上,不仅能够带来模型拟合精度和效度的提升,还能开展复杂高层次、多维度、异质性和多元函数形式的因果推断,与计量方法结合可精准刻画因素之间的复杂关系。理论发现(discovery)层面的应用是在数据驱动范式下将高维数据压缩至低维以浓缩概念、特征或理论的过程。聚类(clustering)是一种较好的概念建构工具,能够将观测对象依据特定算法原则划分为互斥的类别,辅助研究者进行概念与类型学的创新。而在理论建构方面,机器学习与质性方法的互动研究则致力于发挥数据密集范式与质性方法各自的优势,在海量数据中发现隐含的理论解释模式,例如将扎根理论与计算科学结合的计算扎根方法可从数据中计算每个可观测变量对因变量的边际贡献大小,研究者对各个贡献因素分门别类后可形成有解释力的理论。
自然语言处理在政治学研究的应用源自“文本即数据”(text-as-data)的开拓。除词频分析和情感分析等基础应用外,现代自然语言处理的许多任务都依赖机器学习及深度学习算法,是建立在机器学习等核心技术之上、面向自然语言文本的人工智能分支。在政治学研究中有两类运用模式:一类基于有监督算法(如随机森林、支持向量机、卷积神经网络),根据预标注数据实现大样本文本标注,一般称为“文本分类”;另一类基于无监督算法(如K均值聚类、潜在狄利克雷分配、主成分分析),直接对非结构化文本进行探索性降维或聚类,随后由研究者对降维或聚类结果予以解释,一般称为“文本聚类”。
上述方法为许多政治学研究议题领域注入了新的动力。政治学方法论领域的前沿研究为研究者提供前沿方法工具箱及指南。近年来政治文本数据的广泛发掘、自然语言处理技术与机器学习辅助测量激发了许多政治学主题中的新见解,海量政治文本如政治人物的演讲、制度性文件、网络留言等均成为研究数据来源。研究者通过上述资料探索文本中隐含的政治立场与意识形态,丰富政党政治与选举研究;通过互联网社交平台获取的公众发言文本数据探测公众舆情与意识形态,进一步完善政治传播研究;基于互联网平台的公开性,海量文本数据实际反映了国家与社会、政府与公民之间的互动;通过政治文本还可以开展有关回应性、公共注意力、政策偏好等主题的研究。
(三)生成式人工智能赋能计算政治学研究方法的路径
1.生成式人工智能的相对优势
生成式人工智能的出现标志着人工智能领域的一次重要变革,与传统的人工智能及其辅助工具相比,生成式人工智能具备一些独有的特征和优势。
首先是生成能力强。生成式人工智能被冠以“生成”二字,足见生成功能是其区别于其他类型人工智能的特性。“生成”特性体现在三个方面。一是生成内容即时调整能力,即生成式模型能根据每一轮生成结果的反馈即时学习调整完成自我微调,生成符合要求的内容。二是多模态生成能力,即输入和生成数据允许多种形式,包括但不限于数字、代码、文本、图片、音频和视频等。三是特异生成能力即特异性,是指研究者可以使用特定领域的数据训练生成式模型,以获取更具领域特异性和专业性的生成内容。
其次是仿真能力强。仿真性能反映人工智能模拟现实状况的能力,而生成式人工智能在环境模拟和真人模拟两项能力上都有突出表现。在环境模拟方面,生成式模型与既有的模拟法保持一致,可以根据研究者的参数设置模拟;更重要的是,为避免主观输入造成的误差,基于海量数据训练的通用大模型可以在研究者命令的指引下自行根据数据中所反映的“实际”设置参数和赋值,实现对现实环境的仿真模拟。在真人模拟方面,一些研究已经使用生成式人工智能成功复现了博弈行为等经典人类行为研究,以证明其与真人的相似性;基于对特定人群特征数据的学习,生成式人工智能能够模拟特定环境下特定人群的调查响应,可以作为“虚拟样本”代表特定的人群。当符合特定特征的特定真人难以进入调查范围时,生成式人工智能代理可以提供帮助。
最后是适应能力强。与其他人工智能模型相比,生成式人工智能具备更优良的泛化(generalization)能力,该能力意味着经过训练的模型在前所未见的数据上可以表现出良好的性能。通用生成式大模型由于训练的数据足够广泛,能够在同一任务集中同时完成多领域任务。往往只需较少训练或“零训练”(zero-shot),大模型就能完成任一指定任务,尤其是与文本相关的信息提取和分类标注任务。若研究者有在特定领域更深入的任务需求,当前计算科学界的研究成果也提供了丰富多元、操作性强的大模型微调技术,研究者既可以选择代码微调,也可以选择上下文学习(in-context learning)等实例导向的微调模式,通过从训练集中挑选一些实例样本来提示模型,使模型能够更好地执行下游任务。研究者可以综合考虑任务的复杂度、数据的质量、计算资源的限制等因素选择最优的微调方案。
从谱系上说,生成式人工智能也是机器学习和自然语言处理技术的一种,其底层技术——转换器(transformer)是一种深度学习算法,而生成式大语言模型则是预训练语言模型的前沿成果。因此,机器学习与自然语言处理在政治学研究中所发挥的作用,生成式人工智能基本均可实现。但是,相较于既有机器学习、深度学习模型和自然语言处理技术,生成式大模型的独特性在于其更强大的生成能力、仿真能力和泛化能力,不仅能生成有一定创造力的内容,对特定的任务背景也表现出极强的适应性。
2.生成式人工智能赋能政治计算
政治计算是一种数据与理论双向驱动的研究方法。实施良好的政治计算研究主要依靠三大要素:算法、算力与数据。计算科学前沿进展为政治计算提供持续更新的优良算法,基础设施建设可提供算力,而当前对生成式人工智能的探索则展现了其在数据要素上的可能贡献,惠及数据插补与数据分析两大环节。
政治计算所依赖的大数据尽管体量大,但难以覆盖人类社会的全部个体,本质上依然不是总体数据,代表性问题依然存在。传统的加权法、删除法或插补法更适用于随机缺失或完全随机缺失的情形,但许多大数据存在的是非随机缺失问题,出现的缺失现象与未观测到的数据有关,如互联网的痕迹数据缺失同特定人群系统性缺少与互联网的接触有关系。机器学习插补法使用无缺失数据训练模型后预测缺失值,能够适应大规模数据的非随机缺失情形,但依然存在高度依赖训练数据、过拟合、不善处理复杂多变量和成本较高等问题。生成式人工智能则转换插补思路,凭借其对真人响应的高精度模拟来解决上述问题。在广泛的训练数据的基础上,研究者可使用调查数据中的人群特征输入大语言模型进行微调,所生成的“硅样本”(silicon sample)能够较好模拟特定特征人群的响应,这种插补方式被阿盖尔等人称为“硅抽样”(silicon sampling)方法。假设使用大模型模拟某一人群的特征,那么研究者需要从既有具有总体抽样代表性的调查中抽取影响特征选择的背景数据,此时所估计的大模型选择特征的概率能够较好地模拟真实分布。为避免抽样或分组所导致的“辛普森悖论”(Simpson’s Paradox),研究还设计了一系列检查来确保“硅抽样”的算法保真度(algorithmic fidelity),评估发现所生成的“硅样本”与真人生成的调查响应不存在系统性的差异。
数据分析也是生成式人工智能赋能政治计算的着力点。如前所述,机器学习及现代自然语言处理技术为政治计算的海量数据提供了性能卓越的自定义编码降维工具,但还存在以下挑战:一是编码标准设定困难,监督算法编码标准设定高度依赖研究者的经验判断,而基于无监督算法聚类编码本身无法提供形式逻辑意义上的编码依据,大大增加了研究者解释的难度;二是编码预测成本与性能问题,不仅在人工标注与模型预训练过程中需要耗费成本,而且不善处理复杂文本或长文本情境,常出现学习噪声和过拟合等问题。
针对编码设定困难问题,生成式人工智能利用自然语言与机器语言之间的灵活转换,提升编码标准科学性。首先,质性方法的前沿探索工作发现,在研究者输入指令的指引下,大语言模型可以提取特定文本的主题并生成详细的编码指南,为研究者提供科学参考。其次,面对聚类编码的困难,生成式人工智能在既有半监督聚类的基础上,根据研究者提供的过程约束和聚类结果评估对聚类算法进行自动有效调整,在减少工作量的同时实现聚类结果的有效迭代,改进聚类性能。
针对编码预测成本性能问题,生成式大模型可实现降本增效。相比既有算法,生成式大模型在给定标准下只需少量样本甚至零样本即可完成编码任务,并拥有不输既有模型和真人编码的性能。此外,当应对更复杂晦涩的文本情境时(如含有隐喻和反语的文本),使用机器学习方法进行文本编码的准确性和可重复性面临质疑,而大语言模型则在复杂情境中表现出更优越的性能,以如下推文情感分类任务为例。该推文通过“祝贺”“做得好”等反语表达了对美国最高法院的讽刺,其情感应归类为“消极”。但是许多学习模型即便在投喂了足够的训练数据的情况下,也很难正确评估这条推文所表达的情感,因为这条反讽式的推文中混杂了积极情感词汇(“祝贺”“做得好”),且相比消极情感词汇(“低于”)占比更大,然而GPT-3正确判断推文情感为消极的概率高达77%,大幅提升了研究者使用生成式大模型处理复杂文本及长文本的信心。
基于上述研究进展,政治学研究已初步将大语言模型引入政治文本编码的任务中。由于单独使用生成式人工智能模型的性能还有待进一步评估,一些研究会将大语言模型分类器作为多种文本分类器的选项之一,或是使用其分类的结果作为评估其他分类器性能的参考,例如米勒与普罗克施在对24个欧洲民主国家的1648份政党宣言文本的怀旧程度评估中,使用了GPT-3.5的怀旧程度打分结果来评估其他机器学习分类器和手工编码的性能,验证了文本分类结果的稳健性。另一种应用模式则利用了生成式大模型的生成功能,如迪克松与赫伯尔特利用GPT的文本摘要功能,将近50万份有关政党立场的新闻报道浓缩为包含“主要问题”和“政党立场”两大部分内容后,再进行文本编码与分析,极大解决了部分机器学习或深度学习模型不擅长处理长文本的问题。
除了数字、文本等载体,生成式人工智能还展现了处理其他媒介数据以服务政治计算的可能性。深度学习的视觉领域应用展现了利用政治视觉数据(visual data)发现政治规律的可能性,方法研究者将视觉处理工具引入政治学中,这些工具在政治传播和政治行为议题中已有应用。生成式人工智能模型同样具备处理图片数据的能力,能够根据研究者指令高效提取图片的内容和主题信息。未来可期待搭载生成式大模型的政治视觉数据处理工具应用到政治计算研究中。
3.生成式人工智能赋能社会模拟
社会模拟建立在社会是一个复杂巨系统的认知上,目的在于建立一个反映现实社会复杂运转情况的模型,通过调整模型来理解社会运转的特征和动态。使用计算机进行社会模拟一般有形式建模、程序转化和模拟实验三个步骤。就前两个步骤而言,生成式人工智能可凭借输出数学推理与程序语言的能力提供科研辅助,研究者输入特定的指令约束即可得到符合要求的数学建模和可运行的程序代码。
更具深远意义的赋能体现在智能体模拟的升级迭代中。智能体模拟(agent-based modeling)是一种面向对象建模的方法,包括主体、环境、行动或交互规则、时间尺度四大要素。相较于系统动力学模型,智能体模拟更能聚焦微观个体的行为及其宏观结果,形成宏观和微观的良好桥接;相较于代理人模型,智能体模拟允许个体的主动性、有限理性与交互性,以及个体在相互交流中调整自身属性和策略的机会。问题在于,即便允许最多元的个体特征,智能体模型中的个体都是研究者根据自己的知识主观设定的;即便允许个体即时调整自身属性与行动策略,个体调整的条件与方式也同样依赖于研究者的事先设置,这些都未必准确符合现实社会中个体的特征分布,且无法穷尽所有情况。譬如在一个流行病传染模拟研究中,研究者需要设定在传染病流行的环境下智能体的首要选择分别是“居家隔离”、“正常外出”或其他行为的比例,并设定智能体染病后采取“外出就医”“居家治疗”策略调整的比例,这些参数的设置都具有主观性,未必能反映智能体做出决策的真正条件分布。
生成式人工智能与智能体模拟的结合则可以较好地解决该问题,其思路是将生成式人工智能搭载到每个智能体上,形成“生成式智能体”(generative agents)。此处以朴俊成等人的前沿研究为例。该研究设置了一个沙盒式的环境,其中包含25个搭载了大语言模型的生成式智能体,每一个智能体都被输入一段由自然语言文本构成的初始特征信息。智能体通过自己的行动与环境互动,且通过自然语言与其他智能体互动,并会在每一轮模拟中输出描述其当前状态的自然语言文本。研究者可以通过几种方式施加影响:用自然语言输入改变环境状态;以第一人称语言输入改变特定智能体的内心状态;“扮演”一位智能体,与其他智能体进行语言互动;等等。所有的变化与互动都会经由智能体感知和大模型的反思后进入下一轮模拟中,成为改变智能体行为权重的依据。
上述将生成式人工智能与智能体结合起来的模拟方法可以被称为“生成式智能体模拟”(generative agent-based modeling, GABM),是智能体模拟方法的革命性突破。生成式智能体模拟的核心优势体现在两大方面。一是以自然语言代替机器语言贯穿参数设置、微调和结果输出过程,允许研究者通过自然语言设定模拟场景与智能体特征,即时调用与掌握模拟中智能体的动态数据信息。二是充分利用生成式大模型的自学习迭代功能,将模拟思维拓展到智能体行为规则的设置中。在保证模型训练数据质量的前提下,搭载生成式模型的智能体所具备的迭代决策能力相较研究者主观的设定更能反映特定类型人群对模拟条件变化的响应,且可以在与其他智能体的互动中即时学习和迭代行为权重,具有极强的灵活性。学界对生成式智能体模拟的探索目前已应用于博弈论、社会规范传播、政治联盟谈判等方面的研究,并可以与计算社会科学中的社会网络分析方法产生良好的融合。高宸等人探索了搭载大语言模型的动态社会网络研究,将从社交媒体收集的大量用户账号与发帖信息输入每个搭载大语言模型的代理中,使生成式智能体模拟特定用户对特定事件的情感态度与网络互动,并预测特定事件下信息、情绪与态度在动态网络中的传播。通过模拟性别议题和核能议题的动态社会网络传播并与真实传播情况对比,研究验证了搭载大语言模型的动态社会网络在预测用户行为、模拟信息传播过程方面的准确性与有效性。
上述例子尽管只是验证性研究,但已展示了生成式人工智能赋能社会模拟的广阔前景。需要注意的是,研究者需在模拟前投喂充足的背景数据以塑造网络个体,而事前投喂数据的精度与广度尤为关键。准确或符合需求的数据投喂有利于智能体增强根据上下文生成的能力,实现更精确的模拟。社会模拟适用于研究一般情况下难以获取证据材料的话题,例如政治学领域的国家安全、外交博弈等,未来可以期待生成式智能体模拟在这些研究中的表现。
4.生成式人工智能赋能互联网实验
互联网实验包括在线调查实验和在线随机干预实验两种形式,本质都是将实验法拓展到互联网平台上。实验研究科学性依赖诸多因素,包括清晰可测试的假设、样本平衡性、可重复性等。研究者可以在参与者与实验者两端分别搭载生成式人工智能,借助其强大仿真能力改善实验研究。
互联网实验同样面临着互联网平台的样本自选择偏误问题。克服此问题的思路与生成式大模型赋能调查研究类似,即利用它生成反映特定人群的“硅样本”,根据所学习的人群特征直接生成实验响应。更进一步的思路是直接将生成式人工智能作为实验对象进行实验,这种做法可以极大地降低互联网实验的成本,但目前仍处于探索阶段,需要充分验证生成式大模型模拟人类行为的能力。一些研究已经使用大语言模型成功复现心理学、语言学与经济学的经典实验,发现生成式人工智能具备在实验情境下模拟某些真人行为决策的能力。
实验的另一大关键在于干预。生成式人工智能的仿真与生成能力决定了它可在实验干预生成中发挥突出作用,且基于大量现实训练数据的生成内容与真人生成的内容之间难以分辨,有效避免了生成干预的“人工智能”特征所引发的潜在干预效应。此处以一系列互联网在线随机干预实验为例,该系列实验探究人们的政治立场在面对反对意见时是否会逆转或极化。参与者首先在开放式问答中输入其认为最重要的议题及相应立场。GPT-3 将用户输入的立场文本进行自动摘要,据此生成李克特量表测量其在该议题上的态度强度和态度确定性,在回答量表题目并确认其态度强度与确定性后,参与者将被随机分配接受准确性动机或方向性动机两种不同的启发(priming)。接着,GPT-3按照研究需求生成关于该主题的支持或反对观点,参与者随机阅读4条全部赞同、全部反对或一半赞同一半反对自己立场的观点,并提供针对这些论点的开放式看法,最后再次使用李克特量表测量参与者的态度强度与确定性。后续若干轮实验则使用GPT所生成的不同长度和情感态度的反驳文本进行干预,探究参与者的立场变化。实验结果表明,人们只有遇到尖酸刻薄的反对论点时才会转向观点极化,同时印证了GPT生成实验干预的有效性。
在当前生成式大模型应用的探索阶段,还有一种干预思路是利用模型与真人生成的差别。以一次有GPT介入的公共品博弈(public goods game)为例,该实验探究认知噪声(cognitive noise)对公共品博弈行为的影响。其中一组实验探究GPT生成干预影响的有效性,在前10轮对实验组和对照组不施加额外的认知影响信息,在后10轮对实验组提供由GPT生成的博弈行为建议。结果表明,认知干预会影响个体的公共品博弈行为,但是真人顾问和GPT生成的建议所造成的影响没有显着差异,即便在告知受试者生成内容来自GPT后也是如此。
以上利用生成式人工智能的互联网实验探索研究为我们提供了以下启示。其一,当实验样本平衡性缺乏保证时,使用硅抽样方法模拟实验响应是一个可行且有待探索的方案。其二,研究者可以使用生成式大模型生成实验干预(可以是文本,也可以是图片、音频),但在当前阶段建议对生成干预的有效性进行评估。其三,研究过程应当符合伦理规范,要确保生成的内容不具偏见和不良影响,且在实验完成后应当告知所生成的干预来自人工智能模型。
三、生成式人工智能与计算政治学研究议题
生成式人工智能的出现是人类科技发展史上的一个里程碑,它极有可能带来各类应用、产业链、价值链和生态的重大变革。在计算政治学领域,生成式人工智能不仅仅是研究方法的助力器,还是一个亟待讨论的热门对象。
(一)反哺经典:生成式人工智能与政治学经典议题
计算政治学作为政治学的分支,其关注始终不离经典的政治学研究议题。在诸多技术赋能的讨论中,生成式人工智能的作用可谓当前的热点话题,将该话题与经典政治学研究议题结合起来可以打造未来政治学研究新的增长点。
1.制度层面:国家与社会
当前部分国家试图在公共部门部署生成式人工智能模型,依靠强大的算力和生成式大模型的预测与生成能力服务政府部门的决策及运作。目前公共管理学界的前沿探索为我们提供了生成式人工智能塑造国家能力结构的两重图景:作为治理中枢的生成式人工智能与作为治理辅助工具的人工智能。作为治理中枢的生成式人工智能强调的是以生成式大模型为核心、以算力与智能设施为配套,实现辖区范围内治理全流程、全方位的智能化,其典型就是搭载了大语言模型的城市大脑系统,能够监控管理多个城市领域,即时监测动态变化并做出预测,辅助城市管理者决策。一些前瞻性研究认为,在公共部门中整体性部署大语言模型能够实现日常任务自动化、官僚系统任务简化、政策评估与预测、跨部门信息交流便利化,塑造公共管理的全新样态。基于国家广泛收集的数据信息与庞大的部署算力,作为中枢系统的生成式人工智能能够有效地将复杂数据转化为可读性强、参考价值高的信息,帮助决策者掌握社会变化态势、降低决策过程中的不确定性,实现国家能力的提升。作为治理辅助的生成式人工智能则以公共部门中的人为核心,围绕政府官僚与生成式人工智能的互动呈现国家能力的可能动态。一项在英国展开的调查发现,生成式大模型的使用在公共部门较为普及,超四成人员已经意识到它在公共部门工作中的作用;生成式大模型的影响已遍及国家行政系统末梢的街头官僚,他们在执行日常裁量权的过程中更多使用生成式大模型辅助决策。但技术冲击与技术依赖也不可避免地降低了官僚自主性与问责性。因此,作为辅助工具的生成式人工智能可能给国家能力结构带来微妙的变化,它可能增强街头官僚的信息获取能力与认知水平,但会削弱他们与社会力量接触时的灵活性。上述研究的引介意在呈现生成式人工智能影响国家能力的多种可能性,而具体作用机制路径则有待学界给出更详尽有力的解答。
对社会端而言,提高社会能力的关键在于形成参与合力。在自下而上的渠道中,生成式人工智能可以发挥良好的公众意见收集与处理功能,畅通公民与政府、社会与国家之间的相互联系;这种利用生成式人工智能技术赋能参与式治理的做法有助于促进社会公益,实现包容性增长。在社会各主体之间,信息依然是形成自主性和参与合力的关键。与既往人工智能技术的高门槛不同,生成式人工智能存在自下而上的利用方式,依靠其基于训练数据生成的内容,社会中各个主体信息与知识获取、分析与决策的能力得到提升,继而更好地在政府信息公开的背景下通过分析政务公开数据实现公权力监督;当需要形成行动合力时,生成式人工智能可以生成具有说服力的政治主张,社会意见领袖可以利用生成式人工智能团结更广泛的公众力量,向政府发出更有力的请求和呼吁,以争取社会利益。
生成式人工智能的出现对国家与社会而言都是提升自身能力的机遇,国家与社会关系或将迎来重塑。未来国家与社会关系的主题研究可以聚焦生成式人工智能对国家端和社会端的复杂多元影响,对当前各国各地区的(次)国家能力、生成式人工智能所带来的多方面影响进行充分评估,探讨国家与社会关系的变化乃至消弭国家—社会边界的可能性。
2.行动者层面:大众与精英
政治行动者与政治参与也是政治学的重要议题。谁是政治行动者?他们为什么参与?参与的后果是什么?政治学长期围绕这些问题展开讨论,形成了十分丰富的理论成果。在长期讨论中,大众与精英都被认为是公共事务的参与者。西方自由主义民主理论倾向精英参与,强调精英在公共事务和民主转型中的关键作用。随着对政治参与概念的理解不断丰富,大众政治参与的动机与后果也得到越来越多的关注和讨论,特别是信息技术的发展也引发了技术影响政治参与的研究,由此产生“数字民主”概念及互联网影响政治参与的相关研究。
生成式人工智能的引入开拓了大众与精英作为政治行动者的研究新方向,它是大众参与的助推器还是精英扩大不平等和控制社会的工具,成为该方向的核心问题。而回答此问题的关键在于哪一方能够更好掌控生成式大模型这一资源,以及由生成式人工智能这一资源所引发的社会结构的可能变动。对大众而言,生成式人工智能的影响是多面向的:作为新兴技术,生成式人工智能的发展可能引发失业波动、塑造极化心理,使得大众成为数字化浪潮下的“技术输家”,继而影响其政治立场与政策偏好,甚至成为群众运动的导火索;作为知识与信息传播工具,生成式人工智能可以提供丰富的公共知识、公开的政务信息与共同体成员的信息,为大众参与公共事务提供帮助。对精英群体而言,凭借科技巨头对生成式人工智能底层技术和海量训练数据的垄断,生成式人工智能还有可能成为少数精英或利益集团操纵公共舆论和思想结构的工具,在对生成式大模型输出内容的依赖中,公众或许将因此失去事实判断和自主决策的能力。当需要利用公众力量实现利益诉求时,生成式人工智能凭借以假乱真的生成内容成为效果拔群的动员工具。另外,我们还需要关注生成式人工智能通过影响政治参与而带来的更复杂的政治和社会后果:生成式人工智能既可以用于组织团结群体,也可能成为宣传虚假和仇恨信息的工具,在此背景下社会的矛盾、极化和冲突将得到缓解还是进一步加剧?这又将给运动和参与带来怎样的影响?这些都可以成为未来研究的重要议题。
(二)智能治理:生成式人工智能与政治学新议题
当前人工智能技术已经广泛运用于经济发展、社会民生和国家治理等领域,监管人工智能与运用人工智能开展治理成为迫切需求。智能治理是人工智能与多元治理结合的产物,是指各主体在治理实践中,以人工智能技术推进治理方式和手段的智能化,实现治理精细化的行为与过程。对于生成式人工智能如何赋能智能治理,目前的探讨则刚刚起步。孟天广等认为,依托人工智能的智能治理实现机制主要有三条:技术赋能政府、技术赋权社会与技术赋智群体,生成式人工智能作为崭新的治理资源在三条路径上都有用武之地。
技术赋能政府指政府依托人工智能技术形成新型治理场域和治理能力。首先,人工智能作为治理的对象倒逼政府向智能化转型,政府治理的场域从现实领域拓展到数字空间。一方面低成本的生成式人工智能降低了技术使用门槛,使用规模空前扩大,另一方面也引发生成煽动、虚假信息等潜在威胁,对政府完善数字空间治理、推进虚实结合提出了更高的要求。截至目前,世界主要政治体(如美国与欧盟)都已经出台了针对生成式人工智能的立法或政策,我国也在2023年4月发布相关管理办法,针对安全使用与生成内容责任确定等关键内容作了初步规定。其次,生成式人工智能作为治理的手段,对政府运作、决策与治理产生影响。例如政府部门使用大语言模型撰写政府公文,减少繁文缛节;在政务服务端口搭载生成式人工智能,提高便民服务水平;等等。上述应用可引发政府治理水平变化,包括部门层级之间数据壁垒与信息不对称进一步缓解,通过海量数据及时精准发现审计问题增强透明度,等等。既有智能治理前沿研究试图讨论政府如何实现趋利避害的人工智能监管与治理,探讨如何通过政府、科技企业与公众的有机联动,更好地将生成式人工智能融入智能治理的领域中,未来的研究可以将上述理论思考与实践现象相结合,开拓智能治理理论下的计算政治学研究。
技术赋权社会也值得关注。它指公民与社会团体依靠技术助力实现信息获取、表达与实际行动等实践,提高公共事务参与度和参与能力。对公民个体而言,生成式人工智能提供了低成本的知识与信息来源,公民可以利用生成式人工智能获得有关政府组织、公共政策的信息,提高参与公共事务、监督政府公权力的能力。对社会力量而言,依托生成式人工智能不仅能促进内部信息互通与组织动员,而且能改善社会组织对外提供公益性社会服务的水平,更好弥补政府在提供公共产品方面的不足。那么,生成式人工智能赋权社会团体组织、社会力量提供公共产品可以有哪些模式?不同的模式可以取得怎样的成效及后果?这些问题可以成为未来“技术赋权社会”的重点研究关注。
四、生成式人工智能应用的挑战与局限
尽管生成式人工智能可以为计算政治学方法和主题领域的拓展提供助力和带来启发,但也存在一些局限与挑战,这些问题主要体现在技术、方法与伦理三个层面。
(一)技术层面:数据依赖与信度问题
从技术层面来看,生成式人工智能是高度依赖数据的模型,预训练所使用数据的特征与质量决定了其输出的特征与性能,而这也是生成式大模型的软肋所在。
首先,当前通用大模型所使用的广泛训练数据的确赋予了人工智能较强的泛化和总结能力,但生产结果偏于表面化,难以产生深入的洞见。譬如,当需要生成式人工智能进行特定学科或特定议题的理论梳理工作时,通用大模型所提供的生成结果是一种入门性质的介绍,且所提出的“研究空白”也并非真正的研究空白,而是研究数据中已有的研究空白。研究者如果要在细分领域开展更深入的研究,就必须采用经过微调的生成式模型。当前许多学科正加紧建设本学科的专属大模型,而这也是成本高、耗时长的大型工程,不仅要拥有规模大、质量高、时效性强的数据,还要具备相当的计算机编程技术和足够完成训练的算力资源。
其次,用于训练的数据所隐含的特征分布会反映在生成式模型的输出特征上。若训练数据质量低或有偏,模型可能学习到数据中的噪声,继而在生成内容上展现出低质量的、有偏的结果。而当前流行的大模型所使用的训练数据从根本上来说并不能完全反映现实世界的特征分布,故而生成式大模型所生成的“默认”结果也不完全“平均”,既有研究已经发现这些大语言模型的输出具备一定的意识形态立场乃至偏见。因此,研究者如果希望生成式模型生成的内容具有“平均”特质,那么在预训练和使用过程中关注并调整训练数据的特征分布十分重要。
训练数据特征的影响和人工调整的空间继而引发了方法学上的可复制性问题。当前流行的通用大模型所使用的训练数据随时间和版本变化,如果研究者需要通过其生成特定的内容,那么很难保证不同版本下生成的内容一致。就以上文提到的生成式人工智能制造“硅样本”为例,对不同版本的GPT使用相同的输入提示生成虚拟人样本后,得到的“硅样本”态度调查响应分布会有明显不同。除了版本与数据的调整外,指令输入的模式也会导致输出结果的差异。既有对生成式模型稳健性的研究发现,当面对对抗性输入时,生成式模型的输出会产生不同程度的偏离。同样以制造“硅样本”为例,通过操纵输入的特征变量个数,可以得到有显着差异的调查响应结果,继而导致统计回归的系数发生扭曲,产生截然不同的研究结论。这些情况意味着研究者有了极大的操纵空间,可以不顾实际地在生成过程中调整输入以达成自己想要的结果,而其他研究者则会因为使用的训练数据集、模型参数、输入指令等一系列差异无法复现研究结论,继而影响使用生成式人工智能的研究的可信度。未来研究者使用生成式人工智能辅助研究,应当完整说明生成式人工智能输出结果的稳健性,或是公开模型版本与数据等相关信息以及大模型交互的全过程,以供他人复现研究结果。
(二)方法层面:模型“幻觉”与解释困境
从方法层面看,生成式人工智能模型作为开展或辅助研究的手段还有诸多不成熟之处。一个相当重要的问题是,生成式人工智能尽管具备生成能力,可以帮助我们“描述”,但并不能“理解”自己的输入和输出。
当前越来越多的学者已经关注到生成式人工智能的“幻觉”(hallucination)问题。如前所述,“生成”是生成式人工智能的核心竞争力,而我们在利用此项突出能力的同时,也应该关注到其在理解任务方面的能力薄弱。从底层逻辑上说,生成式大模型所生成的内容是基于训练数据与统计规律演算得出的,它可以将输入的文本、图片和文件等信息转化为数据后经由计算生成最符合关联规律和条件的输出,但实际上并不能理解所输入的内容本身,对所输出的内容也缺乏理解和审查的能力,因此类似于逻辑推理的任务,生成式大模型往往会出现“幻觉”问题。“幻觉”问题是指生成式大模型在与常识限制对抗时,会产生生成逻辑连贯但虚假或无意义文本的问题,具体表现包括罔顾事实、前后矛盾、生成无意义内容等。此处以比较政治学中经典的政治制度比较为例。根据胡安·林兹的研究,民主更容易在议会制而非总统制国家中存活下来,该论断已得到事实层面的有效印证。我们首先基于上述结论向GPT提问“为什么总统制比议会制更容易转向非民主国家”,得到的原因分析与林兹的分析十分相似,如总统固定任期、零和博弈选举、国家元首与政府首脑的重合等。然而,当反过来询问GPT“为什么议会制国家比总统制国家更容易转向非民主国家”时,GPT会生成一系列连贯但自相矛盾的回复,如认为应对危机时“议会制更倾向集中决策而削弱民主”,但在前一个问题分析中总统制却是更可能出现危机集权的制度。尽管前沿版本的生成式大模型正努力通过后处理和外部信息接入等方式来解决此类问题,但依然可以看到“幻觉”问题对研究严谨性、真实性和可信度的潜在威胁,研究者需谨慎辨别思考生成的内容。
“幻觉”问题是生成式人工智能所面临的“解释难题”的一部分。除了上述“幻觉”现象,生成式人工智能在理解能力上还存在短板,既无法对所生成的内容给出有效的解释,也无法进行更深入的逻辑推理。这种强大的生成力与相对孱弱的理解力之间的矛盾被韦斯特等人总结为“生成式人工智能悖论”。从根本原理上说,生成式大模型的内容生产基于数据的关联形式而并非数据的内容本身,这使得它难以完成类似理解和推理的任务。到目前为止,只有人类具备充分理解内容、内涵与逻辑的能力,知识生产与理论创新还是要依靠研究者对既有知识的深入理解把握。
(三)伦理层面:多领域的道德问题
伦理层面的挑战可以从两个角度来解读:作为方法或科研协同者的生成式人工智能所引发的伦理问题、作为要素议题的生成式人工智能带来的伦理问题。
在方法或科研协同层面,生成式人工智能的核心伦理问题是偏见与不透明。生成式模型所使用的训练数据(特别是文本)本身包含着特定的立场,其生成的内容立场是训练数据中立场表达的综合表现;隐含不同立场的训练数据会使得生成模型的生成内容表达不同立场,从而产生特定的议题或意识形态偏见,最典型的表现是同一个大模型下输出的不同语言的内容存在一定的立场差异,而这与使用特定语言国家的意识形态分布密切相关。使用生成式模型模拟“硅样本”的根据是训练数据中包含特定人群的代表性特征,而这些代表性特征只是特定人群中个体特质的共性方面(甚至是社会认为应有的方面),基于这些代表性特征生成的响应极有可能加深我们对特定人群的刻板印象或“漫画化”。另外,透明度始终是生成式人工智能所面临的质疑来源:从输入内容到输出内容的过程是一个不可见的“黑箱”。在程序机制上,生成式大模型中包含海量的参数和参数关系,这使得理解模型的运算机制十分困难;在抽象逻辑上,生成式大模型往往不提供做出决策的逻辑过程,这可能会导致我们难以建立起对生成式人工智能的信任,其生成结果的可靠性也令人担忧。
在要素议题层面,生成式人工智能所引发的伦理担忧已经扩散到经济、政治与社会领域。颠覆式技术革新既是进步力量,也可能加剧偏见歧视、社会不平等与政治不稳定。学界未来应当在学术和现实领域讨论以多元智能治理规范生成式人工智能、促使其运用和发展遵守人工智能的伦理规范的路径与方案。
五、总结性讨论
综上所述,在计算政治学的学科视域下,生成式人工智能拥有广泛的应用前景。在方法层面,生成式人工智能可以赋能计算政治学的三大研究方法,带来质与效的飞跃式提升。在主题层面,生成式人工智能可以作为智能治理研究的重要议题,同时还能与经典政治学理论产生对话,为计算政治学贡献大政治学学科的理论与经验提供新的素材。要充分发挥生成式人工智能在计算政治学中的作用,未来可以从以下三方面开展工作。
第一,拓展作为研究方法的生成式人工智能。本文探索了生成式人工智能赋能计算政治学的三大研究方法——政治计算、社会模拟和互联网实验。在本文之外,也已有许多研究者使用生成式人工智能复现经典的社会科学研究。然而我们也能观察到,搭载生成式人工智能的计算政治学研究方法还存在诸多挑战,需要更多的前沿探索与技术进步加以应对。
第二,拓展作为研究要素的生成式人工智能。生成式人工智能的出现本身就是一个极具影响力和重要性的外生冲击,且势必会在经济、政治、社会民生、文化等领域产生一系列广泛深刻的影响。例如,生成式人工智能如何影响社会信任与大众心理?如何塑造未来的政府运作?这些问题都尚未有系统性明确的解答。计算政治学应当及时精准捕捉这些影响,并对这些影响加以度量和研究。
第三,拓展作为理论对象的生成式人工智能。对生成式人工智能的探索不能止步于工具意义上的追求,还应当关注其“模仿人类智能”的侧面。我们不仅期待它丰富对计算政治学研究方法与主题的理解,还可以拓展既有的社会科学理论。此处抛砖引玉提出一些可能:随着生成式人工智能应用的扩张,人们可能多出一种组织手段——这是对集体行动理论的丰富;生成式人工智能塑造下的制度与参与,也会带来国家治理理论、民主理论的新理解。最重要的,社会科学的关注点始终是“人”,更深入的思考则应当关注生成式模型“拟人”与真人之间的张力。生成式模型可以从事真人进行的大量工作、模拟真人在特定情况下的响应,这些“硅人”(homo silicus)既受到真人技术调整的影响,又与智能体模拟等依靠预设逻辑演变的技术不同,充满了不确定性。而正是在这样的不确定性中,我们可能探索到生成式人工智能如何形塑人与技术、人与社会的关系,以及改变人们对社会问题的理解。这些都将成为政治学理论更新的源泉。
严洁,北京大学国家治理研究院副研究员,北京大学政府管理学院教授,北京大学公共治理研究所副所长;
林胤志,北京大学政府管理学院中国国情研究中心研究助理。
来源:《世界社会科学》2025年第1期。注释从略。
平台声明:该文观点仅代表作者本人,佐伊科技仅提供信息存储空间服务。发布者:rmltwz,转转请注明出处:https://www.rmltwz.com/shehui/30915.html