基于分布拟合方法的高频数据风险值研究_风险价值论文

基于分布拟合方法的高频数据风险价值研究,本文主要内容关键词为:风险论文,价值论文,方法论文,数据论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

一、研究背景

近年来,由于存储技术和计算技术的进步,所谓“高频”金融数据越来越容易获得,许多学者就日内数据进行了大量研究(Andersen and Bollerslev(1997,1998,1999),Giot(1999),Guillaume(2000),Muller,Dacorogna and Pictet(1996))。然而,对日内数据的波动性,特别是风险价值(Value-at-Risk)研究甚少,只有Muller,Dacorogna and Pictet(1996)对日内数据的极端波动进行了研究。

实际上,金融风险分析只有在相当大的样本下才能显现出有效性,这里的“大样本”与传统的大于30(或者50)个样本截然不同,所谓“大样本”往往是成千上万,日数据、周数据、月度数据等都难以满足大样本要求。日数据需要十年的积累才够2500个样本,周数据需要五十年才有2400个左右,而100年的月度数据才累计约1200个样本,显然,如此长期的时间跨度是许多新兴市场难以满足的。尽管成熟市场(如纽约证券市场)可以提供100多年的数据资料,但是由于历史变革和制度变迁,这些数据在各个历史阶段具有不同特征,是否有可比性尚值得疑问,如果分阶段分析,那么“大样本”性质又得不到满足。日内数据则为实证分析提供充分得数据资源,以5分数据为例,只要一个月时间即可得到1000个左右样本。相比“低频”数据,以日内数据为代表的“高频”数据具有更好的分析价值。因此,现在对日内数据的需求已经超过对日度数据需求,成为金融实证研究热点之一。

除了高频数据能够提供丰富的数据资源之外,高频数据倍受瞩目的原因还在:对金融高频数据的逐步积累和了解,不仅转变了一些陈旧的研究理念,而且随着对金融高频数据统计特征认识的深化,也使先前一些关于如金融市场同类性、短期价格波动服从高斯随机游程的古典经济假定受到了质疑。一定程度上,高频数据为在探寻金融市场微观结构的过程中,基础经济理论、研究方法和计量模型等进行不断地创新和完善提供了条件。

我国高频数据研究尚处于起步阶段。其原因一方面在于从世界范围来看,高频数据研究仍然处于起步阶段,尚不透彻的理论研究无法成功地应用于实践,由于缺乏成功的研究案例,使得国内许多院校、研究机构在高频数据研究面前感到迷惘和困惑;另一方面无论从商业角度还是技术角度来说,高频数据十分难以得到,许多学者无法对高频数据展开深入研究,从而极大地阻碍了理论研究的突破和实践的开展。

本文利用2003年12月1日至2004年3月1日深圳成分指数5分钟数据对Value-at-Risk模型进行基于尾部特征的估计。考虑到GARCH类模型在分析高频数据的低效率(后文说明),我们不采用模型方法估计Value at Risk,而用非参数方法和参数化的GP分布估计尾部下偏风险。

二、非参数技术、GP分布和Valac-at-Risk(注:更进一步的介绍VaR技术参见Jorion(1997),Danielsson and de Vries(1998)or Danielsson,Hartmann and de Vries(1998).)

(一)GARCH模型与高频数据

虽然众所周知,在每日或更低频的收益数据中存在GARCH(或者ARCH)效应。但是研究发现,金融高频数据中的波动一致性远远低于低频数据。如Andersen和Bollerslev用1992~1993年外汇现货交易中US$DM的收益数据所作的研究表明,当交易间隔缩短为90分钟时,用GARCH(1,1)模型所估计的波动一致性就消失了。由于GARCH模型在较低频率数据的成功表现,很自然让人们考虑如何将它移植高频数据建模中来。但到目前为止,这方面还没有重大突破性的进展,当然也有一些阶段性的研究成果。Francq and Zakoian(2000)在Drctst and Nijman(1993,1996)的弱GARCH模型的基础上,提出了—套弱GRACH模型的估计检验方法,但还没有实证的例子。Daccorogetal(1996,1998)提出了HGARCH(Heterogence GARCH),在GARCH模型的条件异方差项引入时间刻度变换处理技术。但实证中也没有表现出很强的优越性。因此,用GARCH模型来估计日内高频数据的波动性就不再是恰当的。

由于GARCH模型在高频数据应用中效果不佳,而怎样的模型适用于高频数据仍然有待深入研究,是否可以不用模型拟合条件方差或者波动性,而用数据本身的分布特征找到适合的刻画风险价值的根据呢?根据这一思路,我们用非参数核密度估计和GP分布拟合高频数据尾部,进而计算VaR是恰当的。

(二)非参数密度估计与VaRt[2,3]

附图

附图

注释:①实际上是对分布函数的一个非参数估计。

三、实证分析

(一)数据描述统计特征

我们选择2003年12月1日至2004年3月1日深圳成分指数5分钟数据作为样本。每日大致有48个数据,除节假日外,共计2639个数据。为了作事后检验,将样本分为估计区间和检验区间:2004-2-17以前的2139个数据为估计样本,以后的500个数据作为检验样本。

考虑到对数收益率具有线性可加性,并可以用泰勒级数展开为除法收益率,且对数收益率加起来正好等于累积收益率,故我们采用对数收益率:

从成分指数走势来看,基本是呈上升趋势,这种趋势可能是确定性也可能是随机性因素造成的。一般来说,EMH假设成立时,资产价格不具有可估计的确定趋势,价格的走势往往是服从随机游走过程。这并不影响本文的分析,故不作更多讨论。从分钟收益率数据来看,五分钟收益率曲线与日度收益率曲b线十分相似,都表现出一定的波动集群性,但是五分钟数据的集群性不如日度数据明显,波幅也较小。

表1 成分指数五分钟收益率描述统计特征

均值 标准差 偏度峰度极大值极小值 JB统计量 DF检验 LJ统计量

0.000061 0.00157 -0.36806 7.20601 0.00728 -0.01271 2004.04 -27.961 369.82

从表1可以看出,五分钟收益率序列具有较弱的左偏态,其最高日内波动已经超过了10%的限制,达到12%左右,这与日度数据在[-10%,10%]间波动有所不同。从JB统计量和峰度来看,五分钟数据仍然具有较为明显的尖峰厚尾非正态特征。DF检验强烈地拒绝了非平稳的假设,收益率数据是平稳的,但是LJ统计量则指出直到第50阶仍然存在显著的相关关系,这与日度数据不同,日度数据一般只有1阶或者低阶的相关关系。

(二)核密度方法估计VaR

根据式(1),核密度方法的第一步是得到窗宽h的估计和选择适当的核密度函数k。核函数对密度函数估计的影响不大,Song Xi Chen and Cheng Yong Tang(注:Song Xi Chen and Cheng Yong Tang(2003).Nonparametric Inference of Value at Risk for Dependent Fihanoial Return.)建议采用无界的核函数,以便于估计VaR的标准差。高斯核是无界核函数,用它作为核函数进行估计便于推导出VaR估计的标准差,并且能够较好的捕捉尾部边界值。我们采用高斯核作为核函数,并采用分阶段试算方法赋初值,弥补了高斯核计算困难。选择了核函数之后,需要确定窗宽h,理论最优窗宽很难计算,但给出了寻找理想窗宽的思路,即反复比较多次窗宽下的平均积分标准误(AMISE),寻找使得AMISE最小的h作为窗宽估计值。我们确定的窗宽为0.003,对应的AMISE为0.4789。

得到密度函数核估计后,我们用公式(2)求解。对于数值积分方程(2),反复赋初值后取定0.001作为初值迭代,误差小于0.000001时收敛。通过Newton算法得到α=0.05时估计值为0.003313,α=0.01时估计值为0.00637959。

(三)GP分布的VaR估计

前面介绍的方法是用GPD来拟合数据的上尾部。对于下尾部的拟合方法是,先把数据变号(把正数变为负数,负数变为正数,保持绝对值相等),然后用上尾部的拟合方法。因此,估计收益率分布的下尾部的尾指数时候,是把收益率数据变号后再拟合GPD。由于我们关心的是风险价值,因此只对下尾部进行估计。

估计GP分布首先需要确定u值。阈值u的确定非常关键,它是正确估计参数β和ζ进而精确度量VaR的前提。过高的u值会导致超额数据太少,从而估计参数的方差会偏高。而太小的u值则会产生有偏的估计量。通常有两种图形技术来确定阈值u,其一是根据超额均值函数(MEF):的图形,选取充分大的u值,使得超额均值函数是近似线性的;其二是根据Hill图。我们采用第一种方法来估计u值。根据平均超溢损失曲线,当u=0.01时,两边曲线近似有线性趋势,因此,我们将0.01作为门限值,超过的数据共有382个。

表2 深圳成分指数收益率GP分布参数

ζ β

估计值 0.062560.00098

标准差 0.023317

0.0000593

用ML估计得到GP参数估计结果:

从估计结果来看,所有参数估计基本上都统计显著,能够通过统计检验。尾指数ζ的估计值大于0,且与正态分布的尾指数ζ=0有明显差别,这表明成分指数的价格收益率服从厚尾分布,属于Fréchet分布族,这一特点与日度数据基本吻合,不同的是,日度数据的ζ值一般大于0.1,即厚尾性更加显著。因此大盘指数的极值波动程度(波幅和频率)要比正态分布情形大,极端事件发生的可能性大于正态分布下的概率,但是相对于日度等低频数据而言,日内数据的波动要弱的多,厚尾性有显著降低。

根据(6)式得到的尾部拟合情况,可以发现,GP分布对尾部拟合的效果较好,基本上刻画了收益率序列尾部特征。下图是残差与指数分布的QQ图,从QQ图来看,GP估计的残差基本上与指数分布在一条直线上,残差基本上不存在厚尾现象,GP分布理想地“过滤”了数据厚尾特征。

表3 GP分布的VaR估计结果

附图

根据式(7)得到99%和95%置信水平下的VaR估计值:

从估计结果来看,日内收益率损失超过0.00246的概率不大于5%,而超过0.00629的概率不大于1%。

(四)Kupiec似然比检验

附图

表4 Kupiec检验结果

附图

四、结论

(1)从分布上看,深圳成分指数5五分钟收益率的分布远远偏离正态,分布具有厚尾性质,并具有负的偏度和较大的峰度。成分指数5五分钟收益率极大极小值序列的广义极值分布具有负的尾指数,这表明其极限分布是Frechet型的,这与关于低频数据的研究一致。这说明,从广义上讲,高频数据与低频数据都服从一个尖峰厚尾的过程,同样具有波动集聚,非正态性等特征。不同的是,高频数据的峰度、偏度远远高于低频数据,其群集现象也比较明显。正是这样,致了GARCH模型族在高频数据分析中的低效。我们认为,高频数据之所以GARCH现象较低是由于投资者根本无法在十分短的时间内对资本市场上的信息作出反映,他们作出反映需要一定的心理判断和调整过程,短时间内作出的调整基本上受到上一时期影响较较大。低频数据由于受到投资者不断调整和非线性信息来源的影响,具有强烈的羊群效应等特征。但是,高频数据的信息来源可以近似视作线性,相应从分布上呈现出与低频数据不同的特征。

(2)核密度估计方法是一种让数据自身说话的方法。核密度估计首先得到关于密度估计的窗宽h,h的选择对密度曲线平滑程度和进一步估计VaR的值都有十分重要的影响。核密度估计VaR的思想其实十分简单,来源于通过直方图对分位数的估计,这是一种最为简单的方法。核密度方法将粗糙的直接寻找分位数转化为利用对密度曲线近似光滑,通过求解数值积分方程来得到关于VaR的估计,弥补了直方图无法得到间断点和缺省值估计的缺陷。核密度方法从理论上是十分有效的,实际估计效果也比较好。在目前还没有更好的研究高频数据方法的情况下,非参数方法显然具有超越分布假设等前提的能力,比较稳健,值得应用。然而,这种方法最大的问题在于需要相当的计算,甚至可能得不到数值解,因此实际应用起来比较困难。

(3)GP分布有两种方法可以估计,一种是ML方法,一种是非参数的Hill统计量估计。但是Hill方法相当粗糙,因此我们没有采用。GP分布是极值理论研究的范围之一,在分析具有重尾分布的资产市场风险时,与其考察整个分布,不如直接对尾部进行分析,因为风险是集中在尾部的。极值方法不需要对回报的分布做出假设,而是让数据说话,来拟合分布的尾,因此建模的风险减少了。这是极值方法最大的优点。如果用正态分布或其它分布假设,则分布的尾部难以拟合得很好。由于极值方法是参数方法,所以样本外的VaR计算在很高的置信水平下也是可行的,而非参数方法则没有超样本预测能力。从计算结果来看,GP分布的VaR值都被接受了,效果优于核密度方法计算的VaR。

标签:;  ;  ;  ;  ;  ;  

基于分布拟合方法的高频数据风险值研究_风险价值论文
下载Doc文档

猜你喜欢