从量化到计算:计算政治学的研究方法与边界

学术   2024-11-10 10:10   上海  

编者荐语:

在大数据基础上所诞生的计算政治学是一门运用计算社会科学研究方法对政治现象进行量化、模型化分析的学科。它通过对政治学研究的分析范式进行重新建构,推动了政治学的学科发展方向转变。本文聚焦于计算政治学的研究方法和边界,提出并讨论了政治计算、社会模拟以及互联网实验三种研究方法的分析思路、优势与局限。计算政治学方法为政治学研究带来了深刻的影响,不仅在传统政治现象分析方面提供了创新工具,而且在挖掘信息政治、网络政治等新政治现象方面也开辟了新的方法和理视角。然而,将现有的计算政治学方法应用于政治学研究仍面临着许多挑战。


从量化到计算:计算政治学的研究方法及边界

摘要:

近年来,有关计算政治学的研究方法、研究逻辑、概念体系和学科边界的讨论一直持续。本文聚焦于计算政治学的研究方法和边界,提出并讨论了政治计算、社会模拟以及互联网实验三种研究方法的分析思路、优势与局限。其中,政治计算在数据量与数据维度方面更具优势;社会模拟对于复杂系统具有更高的适配性;互联网实验是验证因果关系的有力手段,但这些研究方法也会受到数据和模型限制。当前阶段,计算政治学在方法论、研究主题以及伦理等三个方面也具有明显的边界:作为一种政治学方法论,它依托于政治学理论而存在,不适合于政治哲学问题、战略性问题以及个别事件的研究,社会伦理也为计算政治学者对数理结果的解读和应用划定了边界。


作者简介:

严洁,北京大学政府管理学院;

李钦帅,北京大学政府管理学院;

牛冠捷,北京大学政府管理学院。


文献来源:

《北大政治学评论》2023年第2辑

本文作者之一:严洁


21世纪以来,信息与网络技术的迅速发展引发了数据信息的空前爆炸,人类搜集和分析数据的能力得以飞跃。科学研究的发展始终与科技进步紧密联系,大数据的发展在学术研究领域推动了研究方法的创新,开辟了新的研究议题,催生了新的科学研究范式和新兴交叉学科的诞生。2009年发表的《计算社会科学》(“Computational Social Science”)一文指出计算社会科学正在悄然兴起,人们将前所未有地自动收集和利用海量数据,扩展社会科学研究的深度和广度。2012年,《计算社会科学宣言》(“Manifesto of Computational Social Science”)全景式地说明了计算社会科学的发展现状及其未来前景,计算社会科学的兴起也带动了计算社会学、计算经济学、计算教育学等研究领域的稳步发展。在政治学领域,无论作为新的研究议题,还是研究方法,大数据都对政治科学的理论与方法更新产生了重大影响,为政治学的发展提供了新的路径。


关于大数据技术对于政治学研究方法的深度影响,一方面,大数据技术革新了政治学研究中的传统分析模式。传统的政治学研究方法,如规范研究、比较历史分析、案例研究、抽样调查、实验与准实验法等在政治学研究中发挥了重要作用,这些方法在发现和理解政治现象、政治行为、政治过程以及探究深层次的政治心理方面承担了重要角色。随着互联网技术的突飞猛进,数据挖掘、机器学习、云计算等方法的出现带动了政治学研究方法的新突破,诸如文本分析(含主题模型、情感分析、语义分析等)、决策树等方法被广泛应用于政治学研究。研究者从海量数据中获取人类政治行为和互动的基本信息,可以从传统的“理论驱动型”研究拓展到“数据驱动型”研究,相比抽样调查法和实验法来说更加关注各种相关关系,引导人们更加关注事物或现象究竟“是什么”“将要发展成什么”,研究者可以从基本事实出发,而不是先从理论假设出发来探求人类社会发展规律。这将改变近百年来政治学研究的思维习惯,并且将定量研究广泛引入各种政治现象和政治过程的解析之中,使研究对象更加精准、明确,从而厘清关系,预测现象或事物的发展趋势。另一方面,大数据方法将终结定量与定性分析方法的分野,利用量化技术分析大规模的定性数据,同时运用定性方法来展现和阐释定量分析的结果。海量的数据规模和全新的数据集特征使得定量研究与定性研究在数据获得与分析方法方面逐步趋于一致,这在某种程度上重新定义了定量研究与定性研究之间的关系。


现有研究对计算政治学进行了一定的讨论,但仍存在许多不足。第一,计算政治学的研究方法尚不清晰。计算政治学领域尚处于快速发展阶段,计算方法的不断更新和应用,可能会对传统政治学研究方法产生影响和挑战。计算政治学所使用的数据和技术较为复杂,需要从多个学科领域融合知识。目前计算政治学所涉及的数据来源广泛,包括社交媒体、搜索引擎、调查数据等,所使用的技术手段包括文本挖掘、机器学习、网络分析等,需要跨学科的知识融合,建立适用于政治学的方法论和理论框架,并且由于计算政治学领域的多样性和跨学科性,不同研究者和学者往往会采用不同的理论和方法来解决问题。这种多元性使得计算政治学的研究方法缺乏一致性和普遍性。第二,现有研究缺乏对大数据分析方法与传统政治学研究方法的系统整合。目前对于计算政治学的理解停留在“数据量”上的改变,而忽视了其“分析方法”上的变革,往往使用传统分析方法对海量数据进行嵌套,较少将大数据方法和传统政治学研究方法进行系统整合。第三,相关研究主要从整个社会科学领域的视角进行,鲜有专门聚焦于政治科学的研究。社会科学各学科的研究范式和研究方法虽有许多共同之处,但各学科之间的方法差异也不容忽视,因此,在计算社会科学背景下聚焦于政治学研究领域,探析计算政治学的研究逻辑和学科边界非常必要。


一、计算政治学的起源


计算社会科学是在20世纪50年代和60年代的计算机革命中诞生的,正式宣告计算社会科学诞生的标志是拉泽(D.Lazer)等学者2009年在《科学》(Science)上发表的《计算社会科学》一文。这篇文章提出了计算社会科学的概念,并强调了计算机科学和社会科学相结合的潜力,指出了计算社会科学的重要性和挑战。计算社会科学起源于计算机科学和数学领域,最初主要是利用计算机和数学方法来解决社会科学研究中的一些方法论问题,尤其是在社会网络分析中,学者们使用计算机来模拟社会系统和个体行为,并且提出了一些关于社会网络和社会结构的基本理论。2009年以后,计算社会科学的研究越来越受到关注,机器学习、数据挖掘等技术的应用,以及计算模拟、社会计算等方法的发展,都为计算社会科学的研究提供了新的途径,并且涌现了大量的计算社会科学研究成果。


一般认为,计算社会科学是一种跨学科的方法,利用计算机科学来研究社会中各类个体与群体的现象和问题。也有学者认为,计算社会科学是研究人类行为和社会现象的计算模型与仿真的领域,通过使用计算机程序来模拟社会系统中的个体和群体行为。按此理解和界定计算社会科学,它主要由“计算+社会科学”两部分组成,旨在将计算机科学和社会科学相结合:一方面,计算社会科学的发展离不开大数据和机器学习技术的发展,计算机和网络技术的应用可以让社会科学家更快速、更准确地收集、处理和分析社会数据,从而更好地理解和解释社会现象,帮助政策制定者和实践者做出更明智的决策;另一方面,计算机和网络技术还可以应用于许多社会科学领域,如经济学、社会学、政治学等,由此产生计算经济学、计算社会学以及计算政治学等。


在社会科学各学科中,政治学是较早应用大数据方法的学科之一,例如,加里·金(Gary King)早在2011年就探讨了大数据时代对政治学研究带来的挑战以及学者该如何应对这些挑战。中国政治学研究中也较早应用大数据方法,并且近些年的文章数量超过了社会科学领域的平均水平(图1)。


该现象与政治学学科特征紧密关联。政治学研究的对象包括政治制度、政治过程、政治行为等,这些现象的数据往往具有高度的复杂性和多样性,需要通过大数据技术进行处理和分析。例如,社会网络分析被广泛应用于政治学研究中,可以用来分析政治行为者之间的关系、政治组织结构。在美国大选中,政治学家们可以基于选民行为和意见的数据,利用机器学习算法对选民进行分类,分析选民群体的行为和倾向,从而预测选举结果。除此之外,政治学家们还可以应用大数据技术研究政策效果、政治角色和权力分配等问题。


“计算政治学”(computational political science)一词最早于2010年出现在宾夕法尼亚州立大学信息科学与技术学院的一篇硕士论文中,在该篇论文中,作者引用马萨诸塞大学阿默斯特分校政治学系对计算政治学的定义——计算政治学不但包含了对互联网、传感器、通信、电子媒体或数据库等计算机产生数据的分析,而且包含使用计算形式编程语言对典型政治现象的描述和分析。这一概念借鉴了计算社会科学和其他分支学科的界定。计算政治学的定义和范畴正在不断发展和演变。有些学者将其定义为政治科学和计算机科学的交叉学科,注重技术和方法的研究;有些学者则将其视为一种方法论,强调数据和模型的运用;还有一些学者强调了计算政治学在政治学中的实用性,将计算政治学视为政治学的一个分支,强调其研究对象是政治现象。总体而言,从一般意义上理解,在大数据基础上所诞生的计算政治学是一门运用计算社会科学研究方法对政治现象进行量化、模型化分析的学科。它通过对政治学研究的分析范式进行重新建构,推动了政治学的学科发展方向转变。


计算政治学最早在中文文献中出现是在2017年,国内学者杨阳、林鸿飞、杨亮等在《大数据时代的计算政治学研究》一文中沿用了上述概念界定,对计算政治学的主要研究问题、机遇与挑战进行了概述。然而,目前政治学界尚未形成使用“计算政治学”这一用语的学术共识;部分研究者虽然对已有成果进行了简要的总结与评述,但尚未有著述对计算政治学的进展进行系统总结。


从学科发展历程的角度而言,计算政治学的出现与定量政治科学存在着深厚的渊源。19世纪下半叶,社会科学专业化、分离化进程加快,政治学成为一个独立的学科。20世纪30年代以来,基于对历史研究法、法理研究法、制度研究法等传统研究法的不满,行为主义研究方法逐渐兴起,主张通过对政治个体行为的观察、统计、分析来获得对政治现象的解释,强调运用经验的、量化的、科学主义的方法来研究政治现象。在行为主义革命的推动下,社会科学研究范式发生转型。到20世纪六七十年代,政治学研究方法在方法论、程序、技术方面积累了大量的讨论,形成了一套系统性论说。定量分析的方法得到了研究者的不断肯定,并在21世纪演变成大数据的计算分析,为计算政治学的出现奠定了坚实的方法论与技术基础。



二、计算政治学的研究范式


传统政治学研究范式采用“本质主义”的研究方法,主要利用形式逻辑的演绎和推理不断地提出问题和解决问题,追寻政治学本质的“元问题”,从而实现“定性”研究类别的系统构建。这种分析范式基于文本空间的形式逻辑特征,即通过命题和论证,探究政治学运行的基本原理,构建逻辑严密的政治学研究理论体系。在这种研究范式中,政治学家主要使用文本分析和案例研究等方法来解释政治现象,通过研究经典政治学文献和国际政治实践,推导出一些政治学的基本概念、原则和理论,进而运用这些理论来解释具体的政治现象,如政治制度、政治行为和政治决策等。拉斯韦尔(Harold Lasswell)是政治学文本分析方法的先驱之一,他在《政治心理学》(Psychopathology of Politics)一书中,通过对政治领袖演讲和政策文件的分析,提出了“谁说了什么,在什么情况下,以及结果是什么”这一政治传播模型,成为政治学研究中的重要框架。施密特(Carl Schmitt)是法理学派的代表人物,他在对政治的本质和国家的本质进行研究时,通过对历史事件和政治实践的深入分析,来揭示政治现象的本质和规律。


传统政治学研究方法的优点在于能够提供广泛的历史和理论背景,为政治学研究提供坚实的基础。然而,传统政治学研究范式的缺点也很明显,主要体现在两个方面:一是研究对象有限,只能对一些具体的案例进行深入研究;二是侧重静态分析,局限于文本和符号的分析,难以应对当代复杂、快速而又多变的政治现象,容易出现理论与实际脱节的情况。传统政治学研究范式在20世纪50年代到60年代时达到了高峰,但在70年代之后,随着新的研究方法和范式的出现,传统政治学研究范式逐渐失去了绝对优势。


进入信息时代,政治学研究呈现出信息手段不断渗透的新趋势,计算政治学更侧重基于动态运行的“机制主义”视角,通过收集和分析来自多种数据源的政治数据,如政治演讲、媒体报道、社交媒体、选举结果、政府文件等,从而实现对政治现象的多角度观察和分析。该研究范式的重点在于利用大数据、机器学习、自然语言处理等技术,使用数据挖掘、网络分析、文本分析等方法,从海量的数据中发现政治现象的规律性、趋势性和关联性,以及进行政策制定和预测。加里·金等学者关于中国政府网络治理的研究展现了数据驱动型研究的基本逻辑和步骤。金提出,计算政治学的研究过程可以分为三个阶段:数据准备、统计分析和解释。


相较于传统政治学以个案为基础的深度研究,计算政治学则使用大数据、机器学习和人工智能等技术来研究政治现象,倾向于广度研究和数据驱动的研究方法,提升和改进了传统政治学研究的不足。


一是大规模数据处理。计算政治学可以处理大规模、高维度、多源头的政治数据,从而实现对政治现象的整体把握和全局分析,同时还可以避免样本量过小和可重复性差的问题,因此计算政治学能够实时监测政治行为的变化和趋势,及时掌握政治局势。而传统政治学则往往需要较长时间的研究和分析才能得出结论。


二是多来源跨层次分析。计算政治学可以收集和分析来自多种数据源的政治数据,从个体、组织、社区到全球层面,分析政治行为的多个方面,进行多层次分析。传统政治学则受限于文本和案例,主要关注政治行为的社会、历史和文化背景,较难进行多层次分析。


三是模式识别准确。计算政治学可以运用各种机器学习算法,如分类、聚类、回归等,对政治数据进行模式识别和预测,从而提高政治现象的准确性和预测能力。传统政治学则主要关注理论和概念的分析,其结论较难进行精确的量化预测。


四是交叉验证。计算政治学可以通过交叉验证和模型比较等方法,对模型的准确性和稳健性进行验证,从而提高政治现象的研究可信度。


传统政治学和计算政治学研究范式的主要异同点见表1。总的来说,计算政治学相对于传统政治学具有更高的数据驱动性、多层次分析能力、实证分析能力和实时监测能力,能够更加精确和及时地理解与预测政治现象。大数据的出现并不意味着政治学中的“假设-建模-检验”科研模式已经过时,研究者仍然需要关注理论的构建和验证,选择合适的模型和方法进行数据分析,并将分析结果进行解释和说明。计算政治学研究中理论和数据相互依存,呈现出一种双向驱动的过程:



三、计算政治学的研究方法


(一)政治计算


1.分析思路:理论与数据双向驱动


社会科学处于数据密集时代,可供研究的信息资源空前丰富,这不仅是因为大量新数据的出现,也是因为传统信息资料的数字化,这些都为对政治进行“计算”提供了基础。政治计算是一种利用计算机和大数据分析技术进行政治研究和分析的方法。政治计算的主要分析工具包括计算机编程、数据挖掘、人工智能、网络分析、机器学习、统计学等。这些工具能够帮助研究者处理大量数据,构建复杂的模型,进行预测和模拟实验,并通过可视化等方式展示研究结果,进而深入理解政治现象背后的本质规律。《政治及有关模型》(Politics and related models)一书强调了利用数学模型进行政治学研究的意义,并介绍了近20个经典的政治模型。政治模型作为一种对现实世界的简化和近似认知方法,也逐渐广泛应用于政治学研究中。总的来说,基于政治学的“可计算性”分析的理论渊源涵盖了结构主义、计算机模拟、数学模型等多个领域,学者们通过将这些理论和方法应用于政治学研究,逐渐形成了计算政治学这一学科领域。


相对于传统量化研究,政治计算具有巨大优势,虽然它们都利用数据来研究政治现象,但政治计算能够通过使用计算机和自动化工具来分析复杂数据集和文本,从而在大量信息中发现难以预测的模式和关系。相比之下,传统的量化研究方法只能处理较为简单的数据类型和小规模的数据集,并且需要在研究设计阶段假设变量之间的关系,并通过统计方法来验证这些假设。此外,政治计算可以处理更复杂的数据和非结构化数据,如政治演讲、新闻报道、社交媒体上的帖子等。这些非结构化数据在传统的量化研究中难以处理,但是通过政治计算方法可以有效地挖掘其中的信息。


总之,大数据技术赋能政治计算处理更为复杂和庞大的数据集,并且能够在数据中发现更为微妙和复杂的关系。这使得政治计算成为研究政治和社会现象的强有力的工具。


2.政治计算的局限


政治计算的优势来源于处理大规模数据的能力,但其也受制于大数据的特点。


一是数据的质量问题。政治计算中的大数据质量主要体现在三个方面:真实性、代表性和普遍适用性。真实性指的是数据准确可信,且被重复获取时具有稳定性;代表性指的是数据能够准确反映所研究的政治课题;普遍适用性指的是数据在一定程度上具有推广到其他情境或群体的能力。大数据质量的优劣直接关系到政治计算研究的可靠性和有效性。学者马修·萨尔加尼克(Matthew Salganik)总结了大数据的十大特点,指出其中三个(海量性、持久性、非响应性)通常对社会研究有益,但另外七个(不完整性、获取困难、不具代表性、漂移、算法干扰、脏数据、敏感性)则会对社会研究造成不利影响。在政治计算中,使用的数据通常来自各种来源,如政府公开数据、民意调查、新闻报道、社交媒体等。然而,这些数据往往存在一些质量问题从而导致政治计算的结果产生误差。政治计算中的数据质量问题可能导致模型的精度降低,从而影响结果的可靠性。此外,政治计算需要大量的数据支持,但是有些数据可能难以获取,比如一些政治决策的幕后交易等。数据来源的可靠性、数据采集和处理的方法、数据存储和传输的问题被广泛认为是影响数据质量的重要因素。除了数据本身的客观缺陷外,算法数据的收集和分析可能受到社会偏见、样本选择偏差和算法本身的偏见等因素影响,进而引起数据质量问题。


二是模型限制问题。首先,人类的行为和决策往往受到众多复杂因素的影响,包括认知、情感、社会环境等,这些因素很难被简单的模型所捕捉;其次,政治计算的模型是基于过去的数据和假设构建的,无法完全准确地预测未来发展趋势。因此,政治计算的结果需要经过研究者合理的解读与验证,才能形成研究结论。


政治计算模型往往只能处理数量化的数据,而对于一些定性的政治问题,如意识形态、文化差异等,政治计算模型可能无法完全解释和预测。例如,小约瑟夫·奈(Joseph S. Nye, Jr.)的“软实力”研究指出,国家的软实力是指其文化、价值观、道德标准等非军事手段对外影响的能力,而这些因素很难被量化。因此,在研究国际关系时,政治计算模型可能无法充分考虑到这些非数量化的因素对国际政治的影响。


政治计算模型也可能受到理论偏见和数据选择偏差的影响。研究者可能基于某些理论或观点构建模型,并选择符合自己观点的数据来支持模型,而忽略了其他数据和观点。例如,在研究美国选民投票行为时,部分学者可能认为党派认同是最重要的决定因素,因此他们的模型可能只考虑党派因素,而忽略经济因素、种族因素等其他因素的影响。在研究全球化时,部分学者可能认为全球化会导致文化冲突,因此他们的模型可能只考虑文化因素,这样就可能导致模型的局限性和偏见性。


此外,政治计算模型往往只是对现实政治问题的简化和抽象,而现实政治问题往往非常复杂和多元化,政治计算模型往往只能提供部分答案,而不能完全解决政治问题。


三是常态偏差问题(normalcy bias)。常态偏差问题指的是一种认知偏差,即人们倾向于认为未来的情况会像过去一样,忽略了新情况的可能性。常态偏差问题产生的原因主要有两个:一是历史数据的限制,政治计算模型建立的过程中,往往需要依据历史数据进行训练和优化,因此模型的预测结果也往往是基于历史数据的,这可能导致模型在未来的预测中存在常态偏差,即偏向于历史常态而无法完全预测新情况的发生。例如,在对美国总统选举进行预测时,如果只依据过去几十年的选举数据,可能会忽略当前社会面临的新问题和新挑战,如新兴技术的应用和社交媒体的影响等,从而导致预测结果的偏差。二是人类天生的心理认知偏差。人类天生倾向于接受与记忆那些符合自己经验和想象的信息,而忽视那些与自己经验和想象不符的信息。这就是所谓的认知偏差,也就是人们在思考问题时出现的错误或偏斜。因此,当人们预测未来时,往往会倾向于认为未来会和过去一样,而忽略新情况的可能性。因此对于政治学家来说,常态偏差问题使得模型的预测结果偏向于历史常态,很难预测未来的事件。


(二)社会模拟


1.分析思路:复杂系统的科学还原


社会模拟是一种利用计算机技术来模拟人类社会行为和互动的方法,社会模拟可以将各种因素、行为和互动模拟为一个模型,并对其进行实验,以观察不同变量的影响,从而预测社会的未来发展和评估不同政策的影响。


学者们对社会模拟的定义和内涵有不同的看法。在研究主题上,一些学者认为社会模拟研究的重点是人类社会系统的特征和动态,目的在于建立一个能够反映现实社会复杂性的模型,包括个体之间的互动、资源分配、信任、合作等行为。通过对模型进行实验和调整,可以更好地理解社会系统的特征和动态。另一些学者则关注个体决策的心理和认知机制,以及这些决策如何形成整体的社会现象。通过模拟不同的决策和策略,可以了解个体决策的心理和认知机制,进而预测社会的未来走向。在方法上,社会模拟的方法可以是基于智能体的模型,着重于描述个体的认知和决策过程;也可以是基于代理人的模型,更加注重描述个体之间的互动和影响。


社会模拟的基本思想将人类社会看作一个由个体行为和互动所组成的系统,并建立一个模型来模拟这个系统。这个模型通常包括一组假设和规则,描述个体之间的互动、资源分配、信息传递和行为决策等。这些规则和假设可以基于现实世界的观察和数据,也可以基于理论模型和模拟实验。


社会模拟在政治学领域的起源可以追溯到20世纪60年代。例如,阿贝尔森(R.P.Abelson)和伯恩斯坦(A.Bernstein)在1963年发表的论文中就运用计算机构建了一个模拟社区公投民意变化的动态模型。然而这些早期的模拟程序往往只涉及很少的变量,因此受到了一些批评。随着计算机技术的不断发展和计算能力的提高,社会模拟也变得更加复杂和精细。例如,弗吉尼亚理工大学生物复杂性研究所为政府开发了“国家规划情景1”(NPS1)模拟。该模拟可以用于测试应对灾害的效果,评估灾害造成的损害程度。这种研究无法以真实实验的形式进行,只能依靠计算机模拟。在模拟中,模型设置了约730000个受试者,可以等同于受影响地区的真实人口,并考虑了性别、年龄和职业等因素,模拟环境的仿真度非常高,借助地理信息系统,再现了模拟区域内的所有建筑物和各种设施。此外,该模型还设置了一套行为规则,每个主体在面对突发灾难时可能会有不同的行为模式,并随着时间的推移感知灾难的程度和具体情况做出决策和采取行动。


目前,在政治学中的社会模拟主要有三类分析模型:代理人模型、系统动力学模型、智能体模型(表2)。代理人模型主要模拟个体之间的互动和影响,用于模拟选举、社会分化、冲突和协调等问题。例如,摩亚(I. Moya)等利用代理人模型进行模拟,研究了恐怖袭击如何影响2004年的西班牙大选。系统动力学模型应用主要集中在政策分析和政策制定方面,克劳迪娅·肯弗特(Claudia Kemfert)使用模型来研究气候政策制定的复杂性和不确定性,以及政策干预的效果。智能体模型关注个体决策和行为的过程,适合研究国际关系、选举和政策协商等问题,阿克塞尔罗德(R. Axelrod)使用智能体模型来研究社会运动如何形成和维持,以及不同的策略对社会运动的影响。


2.社会模拟的局限


社会模拟通常是基于现有数据和假设进行建模,这使得模型很可能是不完全的,从而影响结果的准确性。


一是数据和参数可靠性。社会模拟的精度和可靠性极其依赖所使用的数据和模型的准确性,如果输入的数据有误或者模型本身有缺陷,那么最终的模拟结果也会有误。然而,政治学中的数据通常是非常复杂的:政治学家需要收集各种社会、政治和经济数据来支持他们的分析,但是这些数据可能是不准确的、过时的或有偏差的;社会模拟需要使用大量的数据来构建模型,但是这些数据可能并不容易获取。例如,一些政府机构可能不愿意公开其敏感数据,而社会科学家也可能无法准确地收集到某些数据。即使数据可以获取,其准确性也可能存在问题,如有错误、缺失或者被篡改,这些都会影响模型的准确性和可靠性。另外,数据处理可能需要进行大量的预处理、清洗和格式化,而这些过程本身可能存在错误,也可能导致数据的偏差。


此外,参数选择的不确定性可能会影响模型的准确性,社会模拟需要设定很多参数和假设,但这些参数和假设通常基于研究者的主观判断或过去的经验,其选择的不确定性可能会影响模型的准确性。


二是模型的简化和抽象。在社会模拟中,模型的简化和抽象是一种常见的方法,因为这有助于模拟复杂的社会现象,并使其变得更易于理解和操纵。但是,这种简化和抽象可能会导致一些关键的因素被忽略,从而影响模型的准确性和预测能力。卡斯特尔(M. Castells)等发现社会模拟可能忽略了人类的情感和主观性,从而无法完全准确地模拟人类行为。例如,在研究社会流行病传播时,模型通常假定人们之间的交互是随机的,并且不考虑人们之间的社会联系和人际关系的影响。这种简化和抽象可能导致模型无法准确地预测真实世界中的传播情况,因为社交网络和人们的行为模式可能会对疾病传播产生重大影响。


同时,模型的简化和抽象也可能忽略了不同变量之间的相互作用。政治现象通常呈现出多层次、多维度、多参与者的特点,受多种因素影响,而这些因素之间存在着复杂的相互作用关系。例如,在研究政策变化对经济的影响时,模型可能只考虑了政策变化对特定变量的影响,而没有考虑不同变量之间的复杂相互作用。这种简化和抽象可能导致模型无法准确地预测政策变化的实际影响。


三是模型的可解释性。社会模拟的目的之一是进行预测,但是社会系统的不确定性和复杂性意味着预测的精度通常很低,其中主要是时间和空间尺度的限制。社会模拟通常涉及许多因素,人口、经济、政治、文化等,而这些因素在时间和空间上的变化是非常复杂和多样化的。在进行社会模拟时,研究者需要设定特定的时间和空间尺度来模拟。例如,在研究政策变化对经济的影响时,研究者可能只关注特定国家和特定时间段内的经济数据,而忽略了不同国家之间的经济联系和全球经济环境的变化,这种限制可能会导致模拟结果仅适用于特定的国家和时间段,而难以进行跨国和跨时段的应用。此外,模型的结果可能会被政治或利益驱动的解释所影响,而不是纯粹基于模型的分析,建模者的偏见将影响结果的客观性和可信度。


四是成本高昂难以广泛推行。社会模拟需要大量的计算资源来支持,特别是在模拟复杂系统时,需要运行数小时甚至数天。但是大规模分布式多智能体仿真需要较高的算力成本和强大的计算资源的支持。例如,前文所提到的“国家规划情景1”每次初始运行需要一个由500个微处理器组成的计算集群进行一天半的计算。因此,研究者必须在模拟效果与经济成本之间做出权衡,这无疑很大程度上制约了这种研究方法在政治学领域的推广。


(三)互联网实验


1.分析思路:在网络信息流中施加干预


与实验方法相结合的计算方法,将使社会科学在理论、经验事实和研究之间建立更良好的连接。互联网实验是指利用互联网技术和在线平台进行实验研究的方法。虽然学者们对互联网实验的界定略有不同,但一般认为其包括两种形式:在线调查实验和在线随机干预实验。在线调查实验是通过在在线平台上发放调查问卷,在调查问卷内搭载实验干预的方式进行研究;在线随机干预实验则是通过在线平台上的交互式任务进行干预和研究。


相比于社会模拟,互联网实验在实验环境、实验对象和实验方式等方面存在明显的区别,具有一些独特的优势。互联网实验是在在线平台上进行的,而社会模拟则是在实验室、场地或者其他现实环境中进行的。互联网实验的受试者通常是来自不同地区、不同文化和不同背景的互联网用户,而社会模拟的受试者通常来自一个地区、一个群体或者一个特定的社会环境。互联网实验通过在线调查或者交互式任务进行,而社会模拟通过实验室实验或者现场观察进行。


互联网实验相对于传统的社会模拟,具有成本低、招募受试者范围广、实验条件控制更为容易、实验时间和规模更加灵活等优势。这些优势使得互联网实验在政治学领域的应用越来越广泛,并为政治学研究提供了更多的可能性。


早期互联网实验研究最早可以追溯到1995年,韦尔奇(Welch)和克兰茨(Krantz)合作进行了一项心理学听觉实验,这是第一次将互联网与实验方法相结合。两年后,克兰茨及其同事进行了一项名为“女性吸引力影响因素”的研究,被视为第一项真正的互联网实验。他们在实验室和互联网上分别使用相同的实验方案进行了实施,并最终发现两种方法在研究结论上高度相似。这一结果证明了互联网实验作为一种研究方法的可行性。此后,这一方法由心理学向政治学以及其他社会科学领域扩展。


政治学中比较负有盛名的一项互联网实验是邦德(R.M.Bond)等人与Facebook合作,在2010年美国国会选举期间进行的一项有6100万被试者(18岁以上Facebook用户)参加的实验,研究主题是信息传播与政治动员之间的关系。实验采用随机化分组的形式,对比实验组和对照组的结果后发现,社会信息直接影响了数百万人的政治自我表达、信息寻求和现实投票行为。此外,这些信息不仅影响了收到这些信息的用户,还影响了用户的朋友和朋友的朋友。


早期政治学领域的互联网实验主要集中在投票和民主决策方面。例如,研究者使用互联网平台模拟在线选举和公投,以了解选民的决策行为和思考过程。随着时间的推移,互联网实验的应用范围逐渐扩大到其他领域,如社会认知、社交网络、国际关系等。互联网实验的使用也逐渐变得更加复杂和技术化,包括使用云计算、人工智能和虚拟现实等技术。也有学者利用微博平台设计开展实验,探究了“热搜”机制对网民新闻消费行为的影响,通过对比“热搜”机制被屏蔽前后的用户参与度数据,发现热搜话题会增加热点新闻的用户参与度,从而拉大热点新闻与非热点新闻间的关注度差距;与此同时,用户对热点新闻的关注度增加往往在小众新闻媒体上更为明显,因此“热搜”机制缩小了主流媒体与小众媒体间的关注度差距。胡萨尔(F. Huszár)等学者与推特平台合作开展了一项包含数百万推特活跃用户的长期大型随机试验,用来研究社交媒体的个性化算法推送是否对特定的政治团体更加有利。他们考察了来自七个国家的主要政党的民选议员所发布的推特,通过对比有个性化算法推送用户与无个性化算法推送用户所收到的推送信息,发现了右翼政客在六个国家都享有比左翼政客更高的个性化算法推送优先级;另外,他们还发现在美国亲右翼的新闻信息源更容易获得个性化算法的推送。


此外,互联网实验分析的一种思路是在网络信息流中施加干预,通过对比干预组和对照组的数据,研究干预对用户行为和心理的影响。研究者可以通过对社交媒体、在线游戏、搜索引擎等平台的干预来观察用户行为和心理的变化,如推送不同类型的信息,改变信息的排列方式,修改游戏规则,等等。通过对干预组和对照组的数据进行比较,可以发现干预对用户行为和心理的影响,进而得出相关结论。有政治学者将同一实验分别在互联网与线下实验室开展并对比结果,以验证其结论的稳健性。例如,魁克(K. Quek)设计了一套博弈实验用以考察沉没成本在国际关系中作为一种“昂贵信号”的逻辑运行机制。他发现作为一种“昂贵信号”(costly signal)的沉没成本在信号发出者与接收者两端分别存在着不同的逻辑机制。他将这个实验分别在线上实验平台Amazon Mechanical Turk(AMT)和线下实验室MIT Behavioral Research Laboratory开展并对比了实验结果,进而验证了其理论结果的稳健性。


2.互联网实验的局限


互联网实验相对于传统社会模拟实验具有许多优点,如成本低廉、操作简便、样本规模大等等,但也存在一些局限和不足。


一是样本选择可能存在偏差。一方面,网络素材的代表性可能有限,因为互联网上的信息来源、参与者和内容都是有限的,不可能覆盖到所有人和所有情况。另一方面,由于互联网使用的技术和工具,互联网实验往往会吸引特定群体的参与者,如年轻人、技术专业人士和网民,这些参与者的特点和行为可能与一般人群有所不同,导致实验结果可能不具有普遍性。


二是很难控制受试者的外部干扰变量。相比于实验室环境,互联网实验可能会受到受试者的自我选择偏差和外部环境干扰的影响,这些干扰变量可能会导致实验结果的不准确性和误差。例如,受试者可能在与他人沟通时受到他人观点的影响,或者在接收信息时受到周围环境的影响。并且互联网实验中的受试者可能会有自我选择偏差,即只有特定类型的人才愿意参加实验。这些偏差可能导致实验结果的不准确性和误差。此外,互联网实验的受试者通常分布在不同的地理位置,他们的社会文化背景、生活方式和环境等因素也会对实验结果产生影响。


三是可能面临伦理和隐私方面的问题。在涉及敏感信息或个人隐私的研究中,研究者必须保证受试者的隐私和安全,遵循伦理准则,否则可能会引起不良的社会影响。同时互联网实验可能面临技术和数据处理方面的问题。在数据收集和分析过程中,可能会发生技术故障、数据泄露、数据丢失等问题,这可能导致受试者的行为受到实验环境的影响,导致实验结果的不确定性和失真。


因此,在进行互联网实验时,研究者需要充分考虑这些局限和不足,采取措施来降低误差并提高实验结果的可靠性。


(四)计算政治学三种研究方法的优势对比


在应用计算政治学方法时,学者们往往会根据数据的可获得性、研究问题与方法的适配性、自身方法论背景以及经费等方面选择最合适的计算政治学方法。


一是政治计算在数据量与数据维度方面更具优势。在大数据技术的支持下,政治计算能够实现海量信息的获取以及多种变量的共同分析,这方面优于互联网实验和社会模拟。从数据量的角度来说,互联网实验所能获取的数据量往往受样本容量等因素的限制;社会模拟虽然可以对庞大数据进行运营,但这些数据往往是根据建模参数生成的虚拟数据而非来源于现实的实证数据。从数据维度的角度来说,在实验中每一对实验组和对照组只能探究一个变量的影响,探究多个变量的作用则需要增加相应数量的实验组;而社会模拟虽然可以对复杂系统进行建模,但所能考察的维度往往受模型逻辑以及计算机算力的限制。此外,依托于大数据的政治计算无须对原始数据的生成进行人为干预,进而最大程度地避免了研究行为对数据的污染。在社会模拟中,各项初始参数往往是人为设置的,其中不免掺杂了研究者的主观意志;在互联网实验中,主试者偏差和受试者偏差往往也很难完全避免。


二是社会模拟对于复杂系统具有更高的适配性。不同于政治计算和互联网实验对现实系统的简化主义逻辑,社会模拟允许主体、要素以及系统之间的交互性与异质性。这种对复杂关系的高兼容性使得社会模拟系统与现实世界中的系统更为相像。此外,不同于另外两种方法受时间或空间的限制,社会模拟还能利用计算机算力在模型中对时空进行压缩,从而使对时空跨度巨大的课题进行理论预测成为可能。上述两点使得社会模拟成为比其他两种方法更为优秀的预测工具。


三是互联网实验是验证因果关系的有力手段。政治计算与社会模拟虽然在纳入多元变量分析时有显著优势,但有时却难以分离出某个独立的解释变量与因变量的因果关系。互联网实验在样本代表性、环境仿真度、可重复性、外在效度等方面都优于传统实验,这就使得互联网实验在因果关系推导上相对于其他计算政治学方法的优势更为明显。


三种计算政治学研究方法各有优势与不足。因此,在用计算政治学研究方法考察某一课题时,研究者应本着“扬长避短,取长补短”的原则,有针对性地选择不同方法解答同一课题的不同问题。具体来说,政治计算在厘清不同变量间相关关系的方面有着独特优势,可以用其来回答“是什么”的问题,即研究课题所呈现出的表征是怎样的,有哪些明显的趋势和规律,这些趋势和规律是否与预期相符。在一系列典型相关关系被发现的基础上,研究者可继续回答“为什么”的问题,也就是探究这些相关关系背后的因果机制。互联网实验无疑是回答这一问题的最优解。研究者可利用互联网实验在因果关系推导上的优势,根据假设逐一验证可能存在的因果机制,从而勾勒出隐藏在相关关系表征背后的逻辑链条。在此基础上,社会模拟可以通过建模将诸多已被验证的因果机制整合到一个复杂的仿真系统内,然后通过修改相关参数来回答“如果……就会怎样”的问题,即探究各个因果机制在不同环境设定下如何在微观层面相互影响并导致不同的宏观结果,从而根据现有知识对可能发生的各种结果进行预测。


通过策略性地使用计算政治学方法对上述三个问题进行回答,研究者可以对所研究的课题建立一套“驳杂-简化-深化-预测”的研究范式。首先,研究者在现实世界浩如烟海的信息流中对富有研究价值的趋势与规律进行定位、捕捉和清理,这是一个由驳杂到简化的过程;其次,萃取和精炼出现象背后的因果逻辑机制,这是一个由简化到深化的过程;最后,将已被论证的种种逻辑机制进行有机整合并重新置于复杂的系统之中,用以对社会生态做出合理预测,从而完成由深化到复盘和预测的过程。随着整个过程的完成,我们对于研究课题的认知便完成了由“杂乱无章”到“精密严格”的重构。



四、计算政治学研究方法的边界


(一)方法论上的边界


首先,计算政治学作为一种政治学方法论,依托政治学理论而存在,需要政治学理论的支撑。政治学理论对计算政治学边界的划定主要体现在内涵和外延两个方面:从内涵上看,本文中所讨论的研究方法,只有在应用于政治学理论检验或拓展时才能被定义为计算政治学方法论,否则就只能被称为计算/模拟/实验工具;从外延上看,在计算政治学研究中基于政治学研究对象的复杂性和显性特征,通常要采用理论与数据双驱动型的研究方式。政治学理论对计算政治学边界的划定是建构性和基础性的。


其次,数据是计算政治学赖以运作的基础,能否获取足量且质量上乘的数据是划定计算政治学边界的另一要素。没有大数据就没有计算政治学,没有合格的数据就没有合格的计算政治学。不合格数据对计算政治学的应用限制可以分三种情况讨论。第一,获取的数据既不足量也不准确。典型例子是涉密数据。各国政府会对一些被认为不适宜向大众披露的数据进行保密处理,而这会使特定数据的获取成本变得极大。公共领域可能会有一些披露的涉密数据,但这些数据不仅真伪难辨,也往往是对一个庞大数据整体的少量截取,很难保证数据的完整性。在这种情况下,计算政治学通常难以施展。第二,获取的数据足量却不准确。有些政治学概念难以被准确测量,例如,领导人风格、政治文化传统等概念都因其本身的多维度性而难以被准确测量。在这种情况下,除非研究者能找到合适的代理变量,否则很难有效使用计算政治学的方法。第三,获取的数据准确却不足量。例如,在研究课题“不同儒家文化模式如何影响国家经济发展”时,研究者会遇到样本容量过小的问题。因为儒家文化只在中国、日本、韩国、越南等少数几个东亚和东南亚国家盛行,无法为计算政治学的使用提供足量的样本。在这种情况下,其他研究方法如比较案例分析,相较于计算政治学方法是更好的选择。


最后,计算政治学方法在应用于预测时对数据量和仿真模型精度有较高的要求,这勾勒出计算政治学方法的另一条边界。相较于传统政治学研究方法,计算政治学方法的一大突出优势就是可以基于现有数据与仿真模型对未来做出一定程度的预测。然而,这种预测的成功率并不总是令人满意的。影响预测成功率的主要有两点。第一,预测需要极其庞大的数据量作为支撑。政治计算中的预测需要大量变量和大量样本,以便尽可能涵盖影响预测结果的变量,以及贴合总体的人口统计学特征;社会模拟中的预测需要大量案例以及有实证依据的初始参数,以便在机器学习的过程中有足够的信息可供计算机训练。第二,预测需要极其精准的模型。这不仅意味着研究者对模型的建构方式要尽量贴合现实逻辑,也意味着对于变量的把控要极其精确——不仅要尽可能加入每一个会对结果造成实质影响的变量,还要尽可能剔除与预测无关的变量。在政治学研究领域,研究者在进行预测时常常并不能确定自己是否已经拥有了足够多的数据量和足够精确的模型,因为并不存在一个判定此类问题的“黄金法则”。即使在预测成功的案例中,由于政治过程有很多黑箱,我们也不能确定现实的运行逻辑是否与预测模型的逻辑相同。总而言之,计算政治学研究方法虽然可以对未来做出预测,但数据搜集与建模的难度也随着预测准确率的上升而升高。当用以支撑预测的变量、数据量或者建模仿真的参数不充分时,建议在计算政治学的边界内寻找其他可研究的议题,过界预测有可能造成较大危害。


(二)研究主题上的边界


首先,计算政治学不适用于政治哲学等规范性理论课题的研究。诸如“什么是正义”“公平和效率哪个更重要”“人权是否高于一切”“人应不应该为国牺牲”等问题是计算政治学方法所无法解决的。这是因为计算政治学方法本质上是一种基于经验的实证主义方法论,而规范性理论往往是先验的,计算政治学和规范性理论研究之间有着一条明确的边界。


其次,计算政治学不适合于研究战略性问题。战略性问题更多的是关于社会动态的分析,而这些问题的答案往往不仅仅依赖于数据的搜集和分析,还需要对历史、制度和文化等方面进行深入的分析和理解。计算政治学方法的运行逻辑建立在将大量数据抽象化和数字化的基础上,这不可避免地会使原始数据所携带的某些信息丢失,进而让数据产生一定程度的失真。对于战略性问题,计算政治学的分析工具可能会因为缺乏深入的历史、制度和文化的分析而出现局限性,导致分析结果的偏差。


最后,计算政治学不适用于针对个别事件或现象的研究。计算政治学所研究的现象通常具有一定程度的普遍性和重复性,研究结果通常也要求具备一定程度的外部效度。比如“经济发展会促进民主化进程吗?”“国际组织如何平息国际冲突?”这两个课题所研究的都是时有发生的现象,研究结果也能用来解释未来可能发生的相同性质的事件。而“日军偷袭珍珠港的决策过程是怎样的?”这类研究课题并不具有普遍性和重复性。这些课题致力于对特定事件进行还原或做出解释,所以并不要求外部效度。因此,此类针对个别事件或现象的研究也框定了计算政治学的一条边界。


(三)伦理上的边界


首先,获取数据时可能会引发伦理问题。有些大数据涉及个人隐私权。从数据量的角度来看,在“万物互联”的当下,每天都有海量信息被生产出来,但学者们在运用海量信息时几乎不可能对其中的每一条数据都做出细致的甄别,用以判定自己所使用的数据是否涉及他人隐私。从数据的生产方式来说,随着各式各样新的信息制造和传播方式被发明出来,划分隐私与公共之间的界限也变得越来越模糊。而针对一个领域的法律法规的发展往往落后于这个领域本身的发展,这一点在技术更新迭代相对较快的信息科技领域尤为突出,隐私权相关的法律规范的更新速度远远跟不上信息技术发展的速度。计算政治学在数据获取过程中所引发的伦理担忧在一定程度上划定了其应用范围。


其次,数据的分析过程中也可能存在伦理问题。这里主要涉及的并非广义上的社会伦理问题,而是更偏向于学术伦理的范畴。在数据分析过程中,有的研究者可能会对数据和计算模型进行有意识的操纵,比如只选择部分数据使用、增加或减少变量、调整模型等,以获得想要的数理计算结果。这种行为是不恰当的,这不仅会使研究结果失真,也会将学术研究的逻辑本末倒置——学术研究的目的是突破主观认知的桎梏从而发现客观世界的真实规律,而不是选择性地利用客观世界的信息来为主观认知佐证。当然,这不是说研究者不能调整自己的数据和计算模型,而是说这种调整应该以增强研究的效度为目的,而非以获得某个特定的数理结果为目的。


最后,进行结果分析时可能会引发伦理争议。在计算政治学中,“计算”是为“政治学”服务的。政治学者对数据的计算分析本质上是为了从数理分析结果出发,推导出具有政治学学术意义的结论,从而拓宽人类认知的边界,推动人类社会的发展。然而,需要注意的是,“计算”的部分往往只涉及数理运算,但“政治学”的部分则可能涉及研究者的价值判断。因此,当研究者尝试从中性的数理运算结果推导出有价值判断属性的研究结论时,就可能会引发伦理争议。例如,我们在统计层面考察了宗教与暴力活动的相关关系后,能不能断言某个宗教比其他宗教更加危险?当使用计算政治学方法得出的数理结果在逻辑上支持研究者做出某个价值判断性质的假设时,研究者还应当思考他所做出的论断是否在伦理上是不合适的,是否会对人类社会的发展造成负面影响。如果答案是肯定的,那么即使这项研究从计算政治学方法论的角度出发是成立的,也不应被鼓励。因此,社会伦理为计算政治学研究者对数理结果的解读也划定了明确的边界。


不过,纵使计算政治学存在边界,但是在实际使用中,计算政治学可以为传统政治学提供更加严密和精确的证据,从而帮助研究者验证或推翻传统政治学的假说。甚至计算政治学可以扩展政治学的研究范围,帮助研究者发现传统政治学所无法触及的政治现象,如在社交媒体上的政治讨论或政治网络的研究。


因此,传统政治学和计算政治学可以结合起来,共同探索政治现象的本质和规律。例如,在研究选民投票行为时,可以结合传统政治学对选民心理、政治意识等方面的研究与计算政治学对选民数据的分析,以全面理解选民投票行为的动机和规律。这种结合方式可以提高政治科学研究的精度和深度,拓展政治学研究的视野。



五、结论与余论


综上所述,计算政治学方法为政治学研究带来了深刻的影响,不仅在传统政治现象分析方面提供了创新工具,而且在挖掘信息政治、网络政治等新政治现象方面也开辟了新的方法和理论视角。计算政治学方法不仅丰富了政治学学科内涵和方法论体系,还深刻地拓宽了政治学学科的边界和社会价值。政治计算、社会模拟、互联网实验等方法跨越互联网、社交网络、信息流和语义学等领域,实现了跨学科研究,拓宽了政治学学科的范围。与此同时,计算政治学方法与互联网、可视化技术的无缝衔接,可以实现政治学研究成果的实时、直观、大众化传播,使政治知识得到社会积累,加强政治学研究对现实政治的直接影响。随着计算政治学方法的广泛应用,计算政治学的学科内涵、方法论体系、学科边界将逐渐清晰,有望成为一个与比较政治学类似的以方法论命名的二级学科,从而推动政治学研究不断前进。


将现有的计算政治学方法应用于政治学研究也面临着几个重要的挑战,厘清这些挑战将有助于我们深入理解计算政治学的本质及其发展趋势。


第一,数据获取和处理的挑战。虽然大数据方法可以收集和处理大量的数据,但是数据质量和可靠性依然是一个关键问题。一些政治学家指出,数据的质量和准确性比数据量更重要,因此计算政治学研究者需要花费大量的时间和精力来收集、清洗和处理数据,以确保数据的可靠性和准确性。此外,研究者还需要应对不同数据来源和数据形态的挑战,这需要他们具备跨学科的知识和技能。


第二,方法论和理论框架的挑战。政治学研究者需要注意避免“数据泛滥”的问题,即使用大量数据却没有明确的研究问题或理论框架。政治学研究者需要理解和应用各种新的方法和技术,同时还需要寻找和构建适用于这些方法和技术的理论框架,以确保研究结果的可解释性和可靠性。


第三,可解释性和推广性的挑战。计算政治学方法往往能够提供大量的数据和信息,但是如何从中提炼出有意义的结论,并将其推广到实际政治问题中,仍然是一个挑战。政治学研究者需要通过数据分析和理论构建,将大数据方法应用到实际政治问题中,以取得实际成果。



编辑|郑宇晨
审核 | 鹏涛
终审 | 山客
©Political理论志






前沿追踪/理论方法/专家评论
ID: ThePoliticalReview

“在看”给我一朵小黄花

PoIiticaI理论志
搜索“理论志”,发现新学术:十余万社会学人、政治学人、国政学人、政经学人共同关注的学术平台。目前,我们主力追踪全球政治社会、国家理论与政经研究新动态。
 最新文章