最近我们被客户要求撰写关于Copulas的研究报告,两个随机变量之间的相依性问题备受关注,相依性(dependence)是反映两个随机变量之间关联程度的一个概念。
它与相关性(correlation)有区别,常用的相关性度量是Pearson相关系数,它只度量了两个随机变量之间的线性关系,其值不仅依赖于它们的Copula函数,而且还依赖它们的边缘分布函数。
直观地说,Copula函数就是两个(或多个)随机变量的联合分布可以表示为它们的边缘分布函数的函数,这个函数就是Copula函数,它与随机变量的边缘分布没有关系,所反映的是两个(多个)随机变量之间的“结构”,这种结构包含了两个随机变量相依性的全部信息。
可下载资源
Joe(1990)尾部相依性指数
Joe(1990)提出了一个(强)尾部相依性指数。例如,对于下尾,可以考虑

也就是

- 上下尾(经验)相依性函数
我们的想法是绘制上面的函数。定义
下尾
对上尾来说,其中是与
,相依的生存copula ,即

其中

现在,我们可以很容易地推导出这些函数的经验对应关系,即:


因此,对于上尾,在右边,我们有以下图形

而对于下尾,在左边,我们有

损失赔偿数据
Copula函数在经济、金融、保险等领域有广泛的应用.早在1998年Frees和Valdez(1998)研究了索赔额与管理费之间的关系,采用了Copula函数对其进行刻画并应用于保费的定价。
对于代码,考虑一些真实的数据,比如损失赔偿数据集。
损失赔偿费用数据有1,500个样本和2个变量。这两栏包含赔偿金付款(损失)和分配的损失调整费用(alae)。后者是与解决索赔相关的额外费用(如索赔调查费用和法律费用)。

我们的想法是,在左边绘制下尾函数,在右边绘制上尾函数。

现在,我们可以将这个图形,与一些具有相同Kendall’s tau参数的copulas图形进行比较
高斯copulas
如果我们考虑高斯copulas 。
> copgauss=normalCopula(paramgauss)
> Lga=function(z) pCopula(c(z,z),copgauss)/z
> Rga=function(z) (1-2*z+pCopula(c(z,z),copgauss))/(1-z)
> lines(c(u,u+.5-u\[1\]),c(Lgs,Rgs)

Gumbelcopula
或Gumbel的copula。
> copgumbel=gumbelCopula(paramgumbel, dim = 2)
> lines(c(u,u+.5-u\[1\])
随时关注您喜欢的主题

置信区间
但是由于我们没有任何置信区间,所以仍然很难得出结论(即使看起来Gumbel copula比Gaussian copula更适合)。一个策略可以是从这些copula曲线中生成样本,并可视化。对于高斯copula曲线
> nsimul=500
> for(s in 1:nsimul){
+ Xs=rCopula(nrow(X),copgauss)
+ Us=rank(Xs\[,1\])/(nrow(Xs)+1)
+ Vs=rank(Xs\[,2\])/(nrow(Xs)+1)
+ lines(c(u,u+.5-u\[1\]),MGS\[s,\],col="red")
包括–逐点–90%的置信区间
> Q95=function(x) quantile(x,.95)
> lines(c(u,u+.5-u\[1\]),V05,col="red",lwd=2)
高斯copula曲线

Gumbel copula曲线

尽管统计收敛的速度会很慢,评估底层的copula 曲线是否具有尾部相依性简单。尤其是当copula 曲线表现出尾部独立性的时候。比如考虑一个1000大小的高斯copula 样本。这是我们生成随机方案后得到的结果。

或者我们看一下左边的尾巴(用对数比例)

现在,考虑10000个样本。

在这些图上,如果极限是0,或者是某个严格的正值,是相当难以断定的(同样,当感兴趣的值处于参数的支持边界时,这是一个经典的统计问题)。所以,一个简单的想法是考虑一个较弱的尾部相依指数。
Ledford 和_Tawn(1996)_尾部相关系数
描述尾部相依性的另一种方法可以在Ledford & Tawn(1996)中找到。假设和具有相同的分布。现在,如果我们假设这些变量是(严格)独立的。

但如果我们假设这些变量是(严格的)同单调性的(即这里的变量是相等的,因为它们有相同的分布),则
所以,有这样一个假设:
那么a=2可以解释为独立性,而a=1则表示强(完美)正相依性。因此,考虑进行如下变换,得到[0,1]中的一个参数,其相依性强度随指数的增加而增加,例如

为了推导出尾部相依指数,假设存在一个极限,即

这将被解释为一个(弱)尾部相依指数。因此定义函数

下尾巴(在左边)

上尾(在右边)。计算这些函数的R代码非常简单。
> L2emp=function(z) 2*log(mean(U<=z))/
> R2emp=function(z) 2*log(mean(U>=1-z))/
+ log(mean((U>=1-z)&(V>=1-z)))-1
> plot(c(u,u+.5-u\[1\]),c(L,R),type="l",ylim=0:1,
> abline(v=.5,col="grey")
高斯copula函数
同样,也可以将这些经验函数与一些参数函数进行对比,例如,从高斯copula函数中得到的函数(具有相同的Kendall’s tau)。
> copgauss=normalCopula(paramgauss)
> Lgs =function(z) 2*log(z)/log(pCopula(c(z,z),
+ copgauss))-1
> Rgas =function(z) 2\*log(1-z)/log(1-2\*z+
+ pCopula(c(z,z),copgauss))-1
> lines(c(u,u+.5-u\[1\])

Gumbel copula
> copgumbel=gumbelCopula(paramgumbel, dim = 2)
> L=function(z) 2*log(z)/log(pCopula(c(z,z),
+ copgumbel))-1
> R=function(z) 2\*log(1-z)/log(1-2\*z+
+ pCopula(c(z,z),copgumbel))-1
> lines(c(u,u+.5-u\[1\]),c(Lgl,Rgl),col="blue")

同样,我们观察置信区间,Gumbel copula在这里提供了一个很好的拟合
极值copula
我们考虑copulas族中的极值copulas。在双变量的情况下,极值可以写为
其中为Pickands相依函数,它是一个凸函数,满足于
观察到,在这种情况下:
其中肯德尔系数,可写成
例如

那么,我们就得到了Gumbel copula。 现在,我们来看(非参数)推理,更准确地说,是相依函数的估计。最标准的估计器的出发点是观察是否有copula函数
具有分布函数
而反过来,Pickands相依函数可以写成
因此,Pickands函数的自然估计是
其中,是经验累积分布函数

这是Capéràa, Fougères & Genest (1997)中提出的估计方法。在这里,我们可以用
> Z=log(U\[,1\])/log(U\[,1\]*U\[,2\])
> h=function(t) mean(Z<=t)
> a=function(t){
function(t) (H(t)-t)/(t*(1-t))
+ return(exp(integrate(f,lower=0,upper=t,
+ subdivisions=10000)$value))
> plot(c(0,u,1),c(1,A(u),1),type="l"
整合得到Pickands相依函数的估计值。上图中可以直观地看到上尾的相依指数。

> A(.5)/2
\[1\] 0.4055346
可下载资源
关于作者
Kaizong Ye是拓端研究室(TRL)的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在上海财经大学完成了统计学专业的硕士学位,专注人工智能领域。擅长Python.Matlab仿真、视觉处理、神经网络、数据分析。
本文借鉴了作者最近为《R语言数据分析挖掘必知必会 》课堂做的准备。
非常感谢您阅读本文,如需帮助请联系我们!