计量经济模型方法中的几个问题_计量经济学论文

计量经济模型方法中的几个问题_计量经济学论文

计量经济学模型方法论的若干问题,本文主要内容关键词为:方法论论文,若干问题论文,经济学论文,模型论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

一、引言

计量经济学自20世纪20年代末30年代初步诞生以来,经过40—50年代的发展、60年代的扩张、70年代的批评与反思、80年代以来的新发展,迅速成为经济学中一个最活跃的分支学科。克莱因(R.Klein)称,“计量经济学已经在经济学科中居于最重要的地位”,“在大多数大学和学院中,计量经济学的讲授已经成为经济学课程表中最有权威的一部分”;萨缪尔森(P.Samuelson)认为,“第二次世界大战后的经济学是计量经济学的时代”。有10位经济学家因为对计量经济学发展的贡献而获得诺贝尔经济学奖,居所有经济学分支学科之首。

计量经济学自20世纪70年代末80年代初进入中国后,迅速为经济学界广泛接受,使得中国的经济学教学与研究发生了迅速而深刻的变化。从80年代中开始,高等院校经济学科相继开设了系统的计量经济学课程,1998年7月,教育部高等学校经济学学科教学指导委员会成立,在第一次会议上,讨论并确定了高等学校经济学门类各专业的8门共同核心课程,其中包括《计量经济学》。将《计量经济学》列入经济类专业核心课程,是我国经济学学科教学走向现代化和科学化的重要标志,必将对我国经济学人才培养质量产生重要影响。

同时,计量经济学模型在经济理论研究和经济问题分析中被迅速广泛采用,已经成为一种主流的实证研究方法。但是,错用和滥用计量经济学模型的现象也不断发生,甚至是普遍存在。究其原因,对计量经济学模型的方法论基础缺乏深入研究和正确理解是最主要的原因。欲使得计量经济学应用研究不致陷入“庸俗”的和“自娱自乐”的境地,并且不使计量经济学被认为是“蹩脚的应用数学”,必须对它的方法论基础开展批判性研究。

计量经济学模型的方法论基础包括逻辑学基础(也可以上升为哲学基础)、经济学基础、数学基础(主要是概率论基础)、统计学基础(主要指数据基础)。本文并不是关于计量经济学方法论的全面研究,只是以通俗的语言对计量经济学应用研究中涉及的一些问题进行初步探讨,以期引起关注。

二、计量经济学模型方法的科学性

任何科学研究,不管是自然科学还是社会科学,甚至人文科学,都遵循以下过程:首先是观察,关于偶然的、个别的、特殊的现象的观察;其次是提出假说,从偶然的、个别的、特殊的现象的观察中,提出假说,或者是理论,或者是模型,这些假说是关于必然、一般、普遍现象而言的;然后需要对假说进行检验,检验方法—般包括实验的方法、预测的方法和回归的方法;最后是发现,关于必然、一般、普遍的规律的发现。

在经济研究中,如果假说(理论或者模型)完全依赖于观察而提出,不附加任何价值判断,然后对理论或者模型进行检验,这一研究过程被称为实证研究(Positive Analysis)。实证研究包括理论实证(Theoretical Analysis)和经验实证(Empirical Analysis)。在经济研究的检验阶段,经验实证分析是科学和便捷的。经济问题无法进行实验,人们不可能构建一个与偶然的、个别的、特殊的现象发生时完全相同的实验平台,进行重复的实验,以检验现象发生的必然和普遍性。根据假说对未来进行预测,然后与真实的“未来”进行比较,以检验假说的正确性,当然是可行的,但并不便捷。对已经发生的经济活动进行“回归分析”(Regression Analysis),发现其中的规律,并用以检验假说,是最可行的方法。所以说,回归分析在经济研究中是不可缺少的。而计量经济学,说到底就是回归分析。

在认识论范畴上,很难简单地将计量经济学模型方法归为“归纳”或者“演绎”。回归分析是一种归纳(induction),是从个别事实走向一般理论、概念的思维方法。但具体到建立模型的每个阶段,又是“归纳”和“演绎(deduction)”交替的。从观察到理论模型(假说)的提出,是一个归纳推理过程;而模型的应用,将归纳得到的一般性规律应用于观察以外的事实,又是一个演绎推理过程。

在方法论范畴上,也很难简单地将计量经济学模型方法说成是“证伪主义”,像一些计量经济学教科书以及某些计量经济学家公开宣称的那样。利用样本估计和检验理论模型的过程,是一个经验检验的过程,确实充满着证伪主义方法论。但是,计量经济学模型方法体系是由一批经济学家和数学家完成的,它是依据坚实的概率论基础建立的。可以而且应该在科学哲学的层次上对它进行解释和完善,承认“证伪”和“证实”的“不对称性”,但不是绝对地“只能证伪,不能证实”。

理论模型的科学性和正确性取决于归纳推理过程,更取决于“个别事实”的数量和质量,从这里出发,既提出了计量经济学模型的经济学基础问题,也提出了数学基础(主要是概率论基础)和统计学基础(主要指数据基础)问题。而对假说进行检验,得到一个一定概率意义上该假说被证实或证伪的结论,除了数学基础和统计学基础外,逻辑学基础是十分重要的。

20世纪90年代,西方经济学方法论学者有过一场计量经济学是否存在的讨论。T.Lawson(1997)断言,不管怎样泼洒计量经济学的圣水,我们都没有因此离经济学的天堂更近一点。M.Blaug(1992)认为,我们已经在(计量经济学)这个铁锤上投资了许多,但是它却不能敲碎任何比胡桃大的东西。关于计量经济学是否存在的讨论,实际上是20世纪80年代在西方科学哲学界兴起的关于实在论的争论在经济学领域的继续。科学实在论认为:科学研究的对象、状态和过程是真实存在的,微观观察不到的客体也是真实的;认识是外部世界的映象,理论对象只要在认识上有效,它便是实在的;科学理论是似真的、趋近于真理的过程。K.D.Hoover(1997)等认为,计量经济学与科学实在论是兼容的,而且科学实在论能够帮助人们更好地理解计量经济学扮演的角色和所获得的成功。同时认为,T.Lawson等先验实在论者反对计量经济学的理由是形而上学的,他们为经济世界提供了一个精确的先验的实在论,而计量经济学与先验的实在论不兼容。

简单地说,计量经济学模型方法,无论是它的归纳阶段,还是它的演绎阶段,无论是它的证伪还是证实,都是反映客观经济活动的经济学理论的发现过程所不可缺少的,具有科学性。

三、模型类型设定对数据的依赖性

从上述关于计量经济学模型方法论的讨论中,从人们从事经验实证研究的实践中,都清楚地感受到,正确地提出可供证实或证伪的假说,即计量经济学理论模型,是十分重要的。对该理论模型进行检验的依据是表征已经发生的经济活动的数据,那么相对于不同类型的数据,应该设定不同类型的理论模型,该理论模型是可以通过经验数据获得证实或证伪的,即模型类型设定对数据存在依赖性。否则,经验检验的数学基础、统计学基础和逻辑学基础将被破坏。从学术刊物发表的论文中看到,大量的错误皆源于此。

用于宏观和微观计量经济分析的数据分为三类:截面数据(Cross-sectional Data)、时间序列数据(Time-series Data)和平行数据(Panel Data,也译为面板数据、综列数据)。

对于截面数据,只有当数据是在截面总体中由随机抽样(Stochastic Sampling)得到的样本观测值,并且被解释变量具有连续的随机分布时,才能够将模型类型设定为经典的计量经济学模型。T.Haavelmo(1943)建立了它的概率论基础。但是,在实际的经验实证研究中,面对的截面数据经常是非随机抽样得到的,例如截断数据(Truncation Data)、归并数据(Censored Data)、持续时间数据(Duration Data)等;或者是被解释变量不具有连续随机分布的数据,例如离散选择数据(Discrete Choice Data)、计数数据(Count Data)等。对于这样的数据基础,仍然采用经典计量经济学的模型设定,错误就不可避免了。20世纪70年代以来,针对这些数据的模型类型已经得到发展并建立了坚实的概率论基础,例如J.J.Heckman(1974,1979)和D.L.Mcfadden(1974)等所作出的基础性贡献。

对于时间序列数据,经典计量经济学模型只能建立在平稳时间序列(Stationary Time Series)基础之上,很可惜,实际的时间序列很少是平稳的。由于宏观经济仍然是我国学者进行经验实证研究的主要领域,而宏观时间序列大量是非平稳的,于是出现了大量的错误。C.W.Granger(1974,1987)等的贡献解决了非平稳时间序列模型设定的数学基础问题。

至于平行数据,截面数据和时间序列数据存在的问题同时存在,并且还提出了模型设定的专门问题,例如变截距和变系数问题、随机影响和固定影响问题等,已经发展形成了一套完整的模型方法体系(见Cheng Hsiao,1986,2003)。依据新的模型方法体系设定理论模型,才能进行可靠的经验实证。

四、经典模型总体设定的先验理论导向

当模型类型以数据为基础被决定后,首先需要进行模型总体设定。以单方程计量经济学模型为例,给定任何被解释变量,要对其进行完全的解释,需考虑所有对其有直接影响的因素集。按照与被解释变量关联关系的恒常性和显著性两个维度,可以分解为显著的恒常性因素集、显著的偶然性因素集和无数单独影响可以忽略的非显著因素集。这里的“恒常性”,或者覆盖所有的截面个体,或者覆盖时间序列的所有时点。

计量经济学模型的任务是找到被解释变量与恒常的显著性因素之间的关联关系——即所谓的经济规律。对于显著的偶然因素,通过数据诊断发现存在这些因素的“奇异点”,然后通过技术手段消除其影响。但对于非显著因素,无论是恒常性还是偶然性的,尽管它们的单独影响可以忽略不计,却不能简单忽略掉无数非显著因素的影响。W.H.Greene (2000)指出,没有什么模型可以期望处理经济现实的无数偶然因素,因此在经验模型中纳入随机要素是必需的,被解释变量的观察值不仅要归于已经清楚了解的变量,也要考虑来自人们并不清楚了解的偶然性和无数微弱因素的影响。

因此,模型总体设定的实际过程将主要包括三个部分:一是围绕被解释变量,界定影响因素集,并进行有效分解,得到显著恒常因素集、显著偶然因素集与非显著因素集,将显著恒常因素作为解释变量。二是确定被解释变量和解释变量的函数形式与在该函数形式下的关系参数。三是确定随机扰动项的概率分布特性和相应的概率分布参数。最终得到待估总体模型。

经典计量经济学模型是指20世纪30年代至70年代发展的计量经济学理论方法体系,它是基于截面数据建构的。截面数据的关键特征是,数据来自于随机抽样,数据顺序与计量分析无关。随机抽样隐含了待界定的特定总体。在经典的计量经济学模型中,尽管模型的经济理论基础一直被很多计量经济学者给予足够的关注,但是设定经济理论通常被认为是理论经济学的任务,而模型估计和模型检验方法才被认为是计量经济学的主要任务。经济理论可以被认为是嵌入计量经济学的,相对经验数据而言具有先验性,因此经典计量经济学模型通常被认为是先验理论导向的。

以先验理论导向实现的模型总体设定,至少存在以下问题。第一,对于同一个研究对象,不同的研究者依据不同的先验理论,就会设定不同的模型。例如,以居民消费为研究对象,分别依据绝对收入消费理论、相对收入消费理论、持久收入消费理论、生命周期消费理论以及合理预期消费理论,就会选择不同的解释变量和不同的函数形式,设定不同的居民消费总体模型。第二,模型具有结构关系不变性。认为先验的理论具有“覆盖性”,对于所有的截面个体或者时点普遍适用,模型所表现的变量之间的结构关系对于所有的截面个体或者时点都是不变的。第三,破坏了模型随机扰动项的“源生性”,随机扰动项可能违背Gauss-Markov假设和正态性假设。进而建立在这些假设基础上的统计推断不具有可靠性。

经典计量经济学模型在经典Gauss-Markov假设下,可以采用普通最小二乘法(或极大似然法或贝叶斯方法)得到线性模型参数的无偏、有效的估计量。这样,在经典假设下,基于来自总体的一个随机抽样,按照最大可能性或最小偏差的统计法则,对总体原型模型参数进行统计推断,得到估计的总体模型。由于抽样的随机性,统计推断确定的参数和总体模型方程都具有随机性。因此,计量经济学知识是统计推断确定的或然知识。这样确定的或然知识,非常务实地回避了休谟的质疑——人类从经验到的过去、局部、特殊如何推论到没有经验到的未来、整体、一般。计量经济学并没有试图找到绝对知识,只是基于抽样对总体原型进行估计,得到关于总体原型的或然知识。但是,计量经济学并不因为放弃了绝对知识,而转向了不可知论。只要Gauss-Markov假设隐含的总体模型方程足够现实,按照特定的统计法则估计的总体参数将是无偏、有效、一致的;只要样本容量足够大,估计得到的总体模型方程与自在的原型方程的偏差是可以忽略的。因此,按照计量分析规则建立的知识是可资依赖的,这就规避了陷入不可知论的危险。但是,上述先验理论导向的模型总体设定存在的问题,其直接后果正是导致对经典Gauss-Markov假设的违背。

基于随机抽样截面数据建构的经典计量经济学模型被大量地应用于基于时间序列数据的宏观经济分析,并迅速从单方程模型发展到联立方程模型,特别是考利斯委员会(Cowles Commission,CC)的资助,使得联立计量经济学模型的设定、识别和估计问题产生革命性的突破,形成了经典宏观计量经济学模型理论体系。但是,从J.Tinbergen到L.R.Klein,都是以当时占主导地位的宏观经济理论为导向进行模型总体设定的。它所带来的问题除了上述的三条外,还必须加上两条:第一,如果模型总体中包含的时间序列是非平稳的,将导致随机扰动项违背Gauss-Markov假设,进一步导致模型精密的数学基础遭到破坏。第二,时间序列数据的序列相关性破坏了经典模型赖以建立的关键假定——随机抽样假定。

经典模型对20世纪70年代的经济衰退和滞胀的预测和政策分析失效,引来了著名的“卢卡斯批判”。R.E.Lucas(1976)指出使用计量经济模型预测未来经济政策的变化所产生的效用是不可信的,提出了结构模型参数是否随时间变化的问题。T.J.Sargenl,(1976)以货币政策为例,重新解析了Lucas批判,认为结构模型对于评价政策似乎是无能为力的。H.C.Sims(1980)指出,为使结构方程可以识别而施加了许多约束,而这些约束是不可信的,建议采用向量自回归(VAR)模型而避免结构约束问题。所有这些,从表面上看是对结构模型和模型结构不变性的批判,而实质上是对模型总体设定先验理论导向的批判。卢卡斯批判揭示的经典模型结构参数显著的时变性问题,彰显了先验理论导向的致命症结,这直接导致更多的学者转向数据关系导向。

五、时间序列分析模型的数据导向

从总体原型的自然属性来看,有两种基本总体原型:一是静态的总体原型,主要是经济因素之间不随时间演变的静态平衡结构,力图揭示经济系统的平衡关系法则,对应的总体是不随时间变化的静态随机分布,通常利用截面数据来估计总体模型参数。二是动态的总体原型,主要是持续演变的经济因素之间的动态平衡结构,力图揭示经济系统的演变法则,对应的总体是在时间维度上持续发生的随机过程,通常利用时间序列数据来估计总体模型参数。

尽管基于截面数据的经典模型同样要面临先验理论与经济现实的脱节,而被迫更多地转而依赖数据关系,但由于时间序列数据的非平稳性和序列相关性,从时间序列的计量分析可以更清楚地看到计量经济学从先验理论导向转向数据关系导向的逻辑和现实需要。

时间序列数据产生于特定的随机过程,即某个或某组随机变量(在任意时点随机取值)随时间随机演变的过程。因此,基于时间序列数据的动态分析与基于截面数据的静态分析具有根本的不同。对时间序列分析而言,需正视以下基本问题(冯燮刚等,2006a):第一,时间序列分析的基本假设——时间序列性,过去可以影响未来,而不是相反(Wooldridge,2003)。这似乎是没有多少争议的。但是决定未来的过去的结构究竟是什么呢?勾画过去的结构化框架很大程度上决定了时间序列分析知识的可靠性。至少要包括状态和趋势,才能相对完整地勾画过去的结构化框架:状态是变量在特定因素组合作用的积累,而趋势则由引起状态变化的特定因素组合在当前的状态决定。第二,产生时间序列数据的随机过程的动力学结构的识别。任何一个时间序列数据的数值都将由两部分来组成,一是由经济系统动力学关系导致的决定性部分,二是由经济系统受到的随机扰动导致的随机性部分。这就使对时间序列的计量分析面临与截面分析同样的总体界定问题。第三,数据的时间序列性破坏了计量经济学静态模型的随机抽样假定,取消了样本点之间的独立性,样本点将发生序列相关。如果序列相关性不能足够快地趋于零,在统计推断中发挥关键作用的大数定律、中心极限定理等极限法则缺乏应用基础。可以证明,对协方差平稳序列,如果满足渐进不相关(两个样本点的相关性随着时间间隔的增加而收敛到0),则不仅适用大数定律,也适用中心极限定理(Hamilton,1994)。因此,对满足渐进不相关的协方差平稳序列,可以适用基于截面数据的统计推断方法,建立时间序列模型。这样,协方差平稳性和渐进不相关性在时间序列分析中扮演了一个非常重要的角色,为时间序列分析适用大数定律和中心极限定理创造了条件,替代了截面数据分析中的随机抽样假定(Wooldridge,2003)。

但是经济现实中的随机过程都很难符合上述标准条件。在不适用大数定律和中心极限定理的情况下,经典模型的计量分析常会产生欺骗性的结论。D.F.Hendry(1998)对非平稳随机变量回归的系统分析表明,无论随机变量间是否存在因果关系,这些随机变量的不平稳性越高,回归方程拟合程度就越高,发生谬误回归的可能就越大。这是基于时间序列进行统计推断必须跨越的障碍。对包含非平稳随机变量的模型的谬误回归,引出两个问题,一是是否存在这样的可能,可以统计确定具有恒常关系的非平稳随机变量之间的模型;二是如何处理非平稳随机过程,为适用统计方法建立模型创造条件。对后者,通过差分法可以把不平稳的高阶单整(integration)过程转化为平稳的零阶单整过程。对前者,即是随机过程协整(conitegration)。于是,单位根检验(unit root test)、协整检验和建立误差修正模型(error correction model)成为数据导向模型总体设定的主要任务。

综上可见,对时间序列的非平稳性的识别与处理就构成了数据关系转向的主要内容;在非平稳随机过程之间,建立恒常的数据关系,成为数据关系导向中时间序列分析的主要目标。这样,带来的新的问题是,计量分析的理论基础——产生时间序列数据的动力学过程或总体界定反而被忽略了。脱离产生数据的动力学过程谈随机过程的平稳性是没有意义的。就协整关系而言,有几点值得深思。第一,随机过程的数据协整关系是结果,而不是原因。第二,由于经济现实的系统关联性,满足统计协整关系的变量很多,但是可以纳入基于动力学关系建立的动态均衡模型的变量并不多。因此,协整关系检验是确定模型动态相容的必要条件,但却不是充分条件。必须在动力学关系分析基础之上,才能有效发挥协整检验的作用。

因此,需要正确认识、对待计量经济学模型的数据关系导向。在充分分析总体原型,正确设定因素组合之后,由于对实体之间的动力学关系认识永远难以达到完备的境界,人们很难准确地确定模型的函数形式。单位根检验和协整检验理论,乃至整个计量经济学方法,给出了探索特定因素组函数关系的有效工具。但是在此过程中,实体之间的动力学关系分析仍然是必要的。

六、模型总体设定的关系论导向

几千年以来,求是求真的学者们都无法回避休谟诘问:如何从经历到的过去、特殊、局部,推论到没有经历到的未来、一般、整体?如前所述,计量经济学基于统计抽样形成的经验数据,运用随机数学分析工具完成或然知识的建构,并按照统计意义的标准进行评价,在回避了休谟质疑的同时,也规避了陷入不可知论的危险。但计量经济学作为统计推断的知识,像任何其他科学知识一样,应当符合科学的基本原则——独立于研究者、独立于样本、具有超越特定时间和空间的某种程度的必然性和普遍性。统计推断逻辑的严密性,只能尽可能防止在统计推断过程中出现新的错误,但并不足以为计量经济学知识提供依据。对计量经济学知识依据的追问,仍然要溯及统计推断的前提——总体设定。因此,总体设定过程的可靠性,决定了计量经济学知识的可靠性。

对计量经济学模型总体设定的讨论,必须首先回答两个问题。第一,要确定的是经济主体内在的本质意义的属性,还是经济主体之间的关系意义的属性。第二,要确定的是主体之间的动力学关系,还是作为主体经济活动结果的经济变量之间的数据关系。

事实上,无论先验理论导向,还是数据关系导向,计量经济学模型总体设定所忽视的正是经济主体之间的动力学关系。正统经济学以其臆构的、具有理想化心理结构的经济人为基础完成理论体系建构。由于割裂了经济主体与其身处的环境之间的互动关系,经济人实际上是在特定的偏好关系假设下理性计算、理性选择的虚拟主体,正统经济学中并没有完整的、现实的经济主体(冯燮刚等,2006b)。经济人参与经济世界的动力学过程,经济人之间的相互作用过程被忽略了,而这些被忽略的动力学过程正是各种经济变量变化的根本原因。缺乏对动力学过程的深刻揭示,缺乏对动力学关系的把握,试图仅从这些变量的实际数据中推导某种一致、稳定的关系,这样的关系必然因为因果关系的混乱而导致模型或理论对现实的严重背离。如果说先验理论导向的计量经济学模型还试图保留虚拟经济主体——经济人——的位置的话,数据关系导向的计量经济学模型则几乎将注意力完全转向了作为经济主体关联互动结果的经济数据。可以从动态计量经济学基于统计相关性的数据关系导向分析范式中清楚地看到这一点。

计量经济学模型分析的目的不是为了确定在主体关系意义上无所指的经济变量之间的关系。经济变量及相关数据是经济主体活动的结果,脱离主体互动关系建构的变量,不过是纯粹的数字。计量经济学模型分析的目的是为了发现塑造整个经济世界的经济主体之间的互动规律。从关系论的角度看,主体的任何行为,都应在主体和其身处的环境之间寻找原因。正像自然科学的动力学研究一样,物体运动状态发生变化的根本原因是物体之环境与物体之间的作用力。同样地,经济主体发生任何行为,尽管有内省、思维(观察、计算、判断、选择等)的私人性心理过程伴随,都必然由主体与其身处的环境之间的作用(也可称为力)引起。

这样,经济主体与其身处的环境之间的动力学过程,是真正的数据生成过程。与经济主体的特定动力学过程相关的数据,将为相应动力学规律的描述提供经验基础。以经济主体与环境之间的动力学关系分析为基础、内核和前提,基于该动力学过程生成的数据,以统计相关性为基本准则,验证确定的经济主体与环境的互动关系,正是所要界定的因果关系。只有动力学关系的理论分析,没有基于统计相关性的经验支持,是无法确认这样的动力学关系的。同样,只有基于统计相关性的、高度易变、多种多样的数据关系,没有具有良好的公度性的动力学关系理论框架,会使统计分析进入迷宫。在关系论导向的计量经济学模型总体设定思路下,关注参数乃是在主体和其身处的环境之间的互动关联中被界定,其本身承载着特定的动力学关系。这就为基于经验数据、以统计相关性为基本法则的随机数学过程,提供了可靠的基础、前提和目标。因此,基于主体行为的动力学关系,可以完成先验理论导向和数据关系导向的综合。

在关系论导向的计量经济学模型总体设定中,中心极限定理仍然居于十分重要的地位。就中心极限定理的适用条件而言,直接要求模型的动力学关系应当充分准确,只有足够准确的模型总体方程,才可以将其他因素归于不显著的动力学关系,而纳入系统源生的随机扰动项,才能适用中心极限定理。

七、模型变量设定的相对性

完成了计量经济学模型的总体设定,就确定了模型所包含的变量和变量之间的关系,接下来的任务就是基于样本数据对模型的关系参数进行估计。但是,在估计之前,一个对估计方法选择和估计结果产生重要影响的问题是关于每个变量的性质的设定,它们是确定的还是随机的?是内生的还是外生的?

正如一个动力学系统中包括状态变量和控制变量一样,任何经济系统,大到国家宏观经济系统,小到个人对某种商品的需求行为,都可以将其中的变量分为状态变量和控制变量两类。凡是经济变量,都是状态变量,都是由系统的数据生成过程生成的,因此它们都是随机的和内生的。但是,计量经济学精密的数学过程要求,必须在模型变量设定时就将经济变量分为确定和随机、内生和外生,例如经典计量经济学模型的Gauss-Markov假设的第一条,就假设解释变量是确定性变量。

无论从先验理论出发,还是数据出发,都没有将确定和随机、内生和外生作为变量本身的固有特性,即认为模型变量设定具有相对性,相对于研究的经济系统,相对于模型系统中特定的参数,相对于不同的应用目标,给予变量确定和随机、内生和外生的界定。例如,对于一个单方程模型,假定那些不受被解释变量的影响的解释变量是外生、确定的。对于一个联立方程模型系统,假定那些只影响系统而不受系统影响的变量是外生、确定的。对于模型系统中的同一个变量,相对于某一个关注参数,它具有外生性,但是相对于另外的参数,就可能不再具有外生性。例如,对于一个粮食供求模型系统,如果关注的参数是需求弹性,即价格与需求量之间的关系,供给量(需求量)具有外生性;如果关注的参数是系统的稳定性,供给量(需求量)不再具有外生性。对于模型系统中的同一个变量,如果将模型用于预测,它具有外生性,但是如果将模型用于政策分析,它可能不再具有外生性。例如相对于预测的外生性变量被要求不受内生变量滞后量的影响,而作为政策变量的外生变量恰恰是根据内生变量滞后量的变化而改变的。

计量经济学模型的研究范式要求对变量的设定首先做出假定,然后再进行经验检验,也发展了各种统计检验方法。假定是从先验理论出发做出的,统计检验是从数据出发的,二者似乎在这里得到了完美的结合。但是,由于统计检验本质上只能证伪,不能证实。实际上,没有被证伪的假定就被接受了,先验的知识世界仍然在变量设定中发挥了主导作用,错误的频频发生就不足为奇了。

更为严重的是,在许多计量经济学应用研究中,随心所欲地设定变量,不进行起码的统计检验,就不能称之为科学研究了。

八、模型随机扰动项的源生性

随机扰动项在计量经济学模型中占据特别重要的地位,也是计量经济学模型区别于其他经济数学模型的主要特征。如前面所讨论的,将影响被解释变量的因素集进行有效分解,无数非显著因素对被解释变量的影响用一个随机扰动项(stochastic disturbance term)表示,并引入模型。显然,随机扰动项具有源生性。在基于随机抽样的截面数据的经典计量经济学模型中,这个源生的随机扰动项满足Gauss假设和服从正态分布。

Greene(2000)指出,在确定性模型中引入随机扰动,并不是为了掩盖确定性模型的不足之处。因此,如果所谓的未被解释的随机扰动并不是真正的不能被解释的因素,模型就是不适当的。牢记这一点对计量经济学是非常重要的。统计推断的理论不像确定性理论那样,会被仅仅一个不符合实际的观察否定。引入随机要素后,对预期结果的描述从确切的表述转化为可能性的描述,除非有占优证据(占优本身则是很难清楚界定的),很难否定随机模型。当然,如果未被解释的随机扰动并不是真正的不能被解释的因素,即使这样的模型难以被否定,也是建模者自欺欺人。不幸的是,Greene的担忧在很多情况下成了现实:在很多计量分析中,随机误差项成了确定性模型不足之处的遮羞布。在大部分计量经济学教科书中,在第一次引入随机扰动项的概念时,都将它定义为“被解释变量观测值与它的期望值之间的离差”,并且将它与随机误差项(stochastic error term)等同。一个“源生”的随机扰动项变成了一个“衍生”的误差。而且在解释它的具体内容时,一般都在“无数非显著因素对被解释变量的影响”之外,加上诸如“变量观测值的观测误差的影响“模型关系的设定误差的影响”等。

将“源生”的随机扰动变成“衍生”的误差,有许多理由可以为此辩解。如果不对数据生成过程的理论结构作出假定,即进行模型总体设定,就无从开始模型研究。但不幸的是,相对于物理学,经济学家对经济现实所知较少,模型总体被研究者有限的知识所确定,因此误差在所难免,只能将总体原型方程的误差项设定为衍生性的。

问题在于,关于随机扰动项的Gauss假设,以及一般未包括于Gauss假设之中的正态性假设,都是基于“源生”的随机扰动而成立的。如果存在模型设定误差、变量观测误差等确定性误差,并将它们归入“随机误差项”,那么它很难满足这些基本假设,进而进行的统计推断就缺少了基础。补救的方法是检验,对于实际应用模型的随机误差项进行是否满足基本假设的检验,其中最重要的正态性检验。但是,在实际上,人们最容易忽视的正是最重要的正态性检验。为什么?一方面是主观上的,认为正态性是由中心极限定理所保证的,无须检验。另一方面是客观上的,如果进行了正态性检验,而检验表明确实不满足正态性假设,又能怎么样?要么放弃研究,要么视而不见。

九、假设检验的不对称性

所谓假设检验,就是事先对总体参数或总体分布形式作出一个假设,然后利用样本信息来判断原假设是否合理,即判断样本信息与原假设是否有显著差异,从而决定是否接受或否定原假设。假设检验采用的逻辑推理方法是反证法。先假定原假设正确,然后根据样本信息,观察由此假设而导致的结果是否合理,从而判断是否接受原假设。判断结果合理与否,是基于“小概率事件不易发生”这一原理的。

在计量经济学模型方法体系中,假设检验是最具经济意义和应用价值的方法之一,因而被广泛应用。正确理解假设检验的不对称性,是十分重要的。假设检验的不对称性包括三个方面,一是证伪和证实的不对称性,属于逻辑学范畴;二是犯第一类错误和犯第二类错误的不对称性,属于统计学范畴;三是统计意义和经济意义的不对称性,属于经济学范畴。

在逻辑学范畴上,经验检验只能证伪,不能证明(证实),这是人们一般认为的,一些计量经济学教科书也是这样写的。但是,波普尔的证伪主义是以“证明”和“证伪”之间的逻辑不对称性为理论起点的:没有什么可以被彻底地证实,但是只要有一个证伪就足够了(M.Blaug,1992)。这里没有完全否认经验可以证实,只是说证实是有限的和不彻底的,否则就会陷入不可知论。例如,在时间序列平稳性检验中,拒绝“序列是平稳的”假设,只要发现一个观测值不具有相同的均值或方差就足够了,因此它是彻底的;而接受“序列是平稳的”假设,即使所有的经验都已经证实,它仍然是不彻底的,因为随着时间的无限延伸,它可能被新的经验所证伪。但是,在这个检验中,“序列是平稳的”假设毕竟经受住了已有经验的检验,尽管没有得到绝对真理,但得到了相对真理。

在统计学范畴上,假设检验犯第一类错误(弃真)的概率α小于犯第二类错误(取伪)的概率β,而且概率α是可以准确给出的,而概率β不能被准确给出。仍以时间序列平稳性检验为例,如果将“序列是平稳的”设为原假设(0假设),而以“序列是非平稳的”为备择假设,如果检验结果显示在一定概率意义上拒绝“序列是平稳的”的,犯错误的概率将小于接受“序列是平稳的”原假设时犯错误的概率。拒绝“序列是平稳的”原假设,就意味着接受“序列是非平稳的”备择假设,那么在统计学意义上,接受“序列是非平稳的”备择假设犯错误的概率将小于接受“序列是平稳的”原假设时犯错误的概率。或者更一般化地说,接受备择假设犯错误的概率将小于接受原假设犯错误的概率。

从这里可以回答一个假设检验应用中的问题:为什么一般将需要检验的命题作为备择假设?例如,在进行变量显著性检验时,原假设为“变量非显著”;在进行因果关系检验时,原假设为“变量之间不存在因果关系”;在进行时间序列平稳性检验时,原假设为“序列是非平稳的”;等等。当然理由是多方面的。从数理统计学出发,原假设必须包含“=”,备择假设不能出现“=”,而只有将“变量非显著”、“变量之间不存在因果关系”、“序列是非平稳的”等设为原假设,才能满足要求。另外,不可否认,将需要检验的命题作为备择假设,接受该命题时犯错误的概率将小于接受将该命题作为原假设时犯错误的概率。

在经济学范畴上,假设检验的命题具有明确的经济学意义。例如所谓“变量是显著的”,表明该变量对被解释变量具有恒常的显著的影响,它在所研究的经济主体动力学体系中是不可忽略的。而假设检验方法,是基于数据的统计学方法。变量在统计学上显著,在经济学上并不一定显著;而在经济学上显著,在统计学上一定显著。这里也存在着不对称性。经济学命题必须通过统计学检验,通过统计学检验的命题在经济学上并不一定成立。忽视经济主体动力学关系的分析,夸大统计学假设检验的功能,是一类常犯的错误。

十、计量经济学模型应用的适用性和局限性

翻开国际上的任何一本经济学刊物,计量经济学应用研究论文随处可见。但是,对它的否定甚至攻击也不绝于耳。M.Blaug(1992)评价,对工业化国家国民生产总值方面的预测的当代成就,可以做如下总结:仅仅比对未来一至两年的粗糙推断做得好一些,至于对经济的下降和上升的精确时刻的预测,正像我们经常做的那样,仍然会犯错误。不管M.Blaug的本意是什么,这样的批评是符合实际的。

为什么出现如此的矛盾现象?难道真的如有人所说的,所有计量经济学研究论文,都是学者们为了获得博士学位或者晋升职称所做的游戏吗?当然不是。这里的关键是:计量经济学能做什么?不能做什么?即计量经济学模型应用的适用性和局限性问题。

所有类型的计量经济学模型,就其应用功能来讲,无非是四个方面:结构分析、经济预测、政策评价和理论检验。结构分析旨在揭示经济主体与环境之间的动力学关系,通俗讲就是揭示变量之间的关系,是通过对模型结构参数的估计实现的。经济预测是利用基于样本建立的模型对样本外的经济主体的状态进行预测,曾经是经典计量经济学模型的主要应用。政策评价是将建立的模型作为“经济政策实验室”,评价各种拟实行的政策的效果。理论检验是在计量经济学模型建立过程中已经完成了的,如果模型总体设定是基于先验理论的,那么当模型通过了一系列检验以后,就认为该先验理论在一定概率意义上经受了样本经验的检验。

不同的应用目的对模型及模型方法论基础有不同的要求,不可能建立一个能够适用于所有应用目的的模型。用于结构分析的模型必须是结构模型,而具有政策评价功能的模型必须是包含政策变量的结构模型。同样是用于预测,基于截面随机抽样数据建立的结构模型,对于截面非样本个体的预测效果一般较好;而基于时间序列数据建立的结构模型,对于样本外时点的预测效果一般较差。同样以时间序列数据为样本建立预测模型,如果政策有效,则必须建立结构模型;如果政策无效,可以建立“无条件预测”的随机时序模型。同一个结构模型,如果仅用于结构分析,解释变量需要具备弱外生性;如果用于预测,解释变量需要具备强外生性;如果用于政策分析,作为解释变量的政策变量必须具备超外生性。凡此种种,不一一列举,但必须切记。

经济预测不应该成为计量经济学模型的主要应用领域。诚然,计量经济学模型作为一类经济数学模型,是从用于经济预测,特别是短期预测而发展起来的。在20世纪50年代与60年代,在西方国家经济预测中不乏成功的实例,成为经济预测的一种主要模型方法。但是,进入70年代以来,人们对计量经济学模型的预测功能提出了质疑,起因并不是它未能对发生于1973年和1979年的两次“石油危机”提出预报,而是几乎所有的模型都无法预测“石油危机”对经济造成的影响。对计量经济学模型的预测功能的批评是有道理的,或者说计量经济学模型的预测功能曾经被夸大了。从计量经济学模型的方法论基础可以看到,“计量经济学并不企图发现覆盖性的法则,只是试图寻找不明显的规律”(K.D.Hoover,1997),而成功的预测所依赖的必须是“覆盖性的法则”。

相对于具有“绝对性”要求的经济预测,计量经济学模型对于具有“相对性”要求的政策评价,更有用武之地。政策评价,或者称为政策实验,应该成为计量经济学模型的主要应用领域。从前面的讨论中可见,在模型的总体设定、变量设定、数据基础以及统计推断中,稍有不慎,就可能破坏随机扰动项的源生性和正态性,带来系统性的偏差。存在系统性偏差的模型,即使“覆盖性的法则”得到满足,如果用于预测,其系统性偏差是无法消除的,导致预测失败。如果用于政策评价,需要的是相对的比较,实行某项政策与不实行该项政策的相对比较,不同的政策力度的相对比较,模型系统性偏差并不出现在比较的结果中。另外,经济政策不能实验,一直是决策者面临的难题,决策失误在所难免。计量经济学模型的“经济政策实验室”的功能所能够产生的效用是巨大的。

应用计量经济学模型只能得到随机性结论。试图得到确定性的结论,是计量经济学模型方法论所不能够的,也是不科学的。目前的计量经济学应用研究论文中,充满着对研究结论的确定性陈述,研究者为自己制造了陷阱,带来了被动,也是没有正确理解计量经济学模型方法论基础的表现。

最后必须重申,计量经济学应用模型的总体设定,即经济系统的主体动力学关系分析,不是理论经济学的任务,而是计量经济学的任务。一项计量经济学应用研究课题,或者一篇计量经济学应用研究论文,必须将大部分工作或者大部分篇幅放在模型的总体设定方面,否则研究课题是不可能成功的,研究论文也是没有人愿意阅读的。

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

计量经济模型方法中的几个问题_计量经济学论文
下载Doc文档

猜你喜欢