R语言计量经济学:工具变量法(两阶段最小二乘法2SLS)线性模型分析人均食品消费时间序列数据和回归诊断

两阶段最小二乘法(2SLS)回归拟合的线性模型是一种常用的工具变量估计方法。

由Kaizong Ye,Liao Bao撰写

本文的主要内容是将各种标准的回归诊断扩展到2SLS。

2SLS估计的回顾

我们需要2SLS回归的一些基本结果来开发诊断方法,因此我们在此简单回顾一下该方法。

×

计量OLS大法在解释变量与扰动项不相关时较为常用,一旦二者出现相关性往往无法解决,此时OLS估计可能不一致,问题产生原因可能是遗漏变量、联立偏差等。较为常见的解决方法是使用工具变量法。

y = a 0 + a 1 ∗ c + u i y=a0+a1*c+uiy=a0+a1∗c+ui为例,y yy为被解释变量,c cc为解释变量,但模型有内生性,此时选取工具变量为x xx。


工具变量的选择

首先工具变量的选择要满足两个条件:


相关性:工具变量与内生解释变量相关,即C o v ( x , c ) ≠ 0 Cov(x,c)≠0Cov(x,c) 

 =0

外生性:工具变量与u i uiui不相关,即C o v ( x , u i ) = 0 Cov(x,ui)=0Cov(x,ui)=0

两阶段最小二乘法

核心思路:c与ui相关,将c中与ui相关的部分分力出去,只留下与其不相关部分;其中转换工具被称为工具变量(IV)。

通过工具变量x重新拟合

用来代替c进行估计


第一阶段

构造c = b 0 + b 1 ∗ x + v i c=b0+b1*x+vic=b0+b1∗x+vi,通过OLS估计的参数,拟合出c ^ \hat{c} 



第二阶段

通过y与c ^ \hat{c} 


 构模型y = b 0 + b 1 ∗ c ^ + e i y=b0+b1*\hat{c}+eiy=b0+b1∗ 

估计出b 1 , b 0 b1,b0b1,b0即为需求参数。


由于外生性要求:工具变量与u i uiui不相关,即C o v ( x , u i ) = 0 Cov(x,ui)=0Cov(x,ui)=0

相关检验

首先对于选用OLS还是工具变量法,需要进行豪斯曼检验

此方法中工具变量的选取最为关键,可能有三种情况:


不可识别:需要工具变量个数<内生变量个数

恰好识别:需要工具变量个数=内生变量个数

过度识别:需要工具变量个数>内生变量个数

其对应需要进行的检验为:

不可识别检验

弱工具变量检验

过度识别检验



2SLS回归是由Basmann(1957)和Theil(引自Theil 1971)在20世纪50年代独立发明的,他们采取了略微不同但又相当的方法,都在下面描述,以得出2SLS估计器。

我们想估计线性模型y=Xβ+ε,其中y是因变量的n×1观察向量,X是回归因子的n×p矩阵,通常初始列1s为回归常数。 β是一个p×1的回归系数向量,需要根据数据进行估计,ε是一个n×1的误差向量,假定其分布为Nn(0,σ2In),其中Nn是多变量正态分布,0是一个n×1的零向量,In是n阶单位矩阵。假设X中的一些(也许是全部)回归因子是内生的,即它们被认为不独立于ε的意义。因此,β的普通最小二乘法(OLS)估计值bOLS=(X⊤X)-1X⊤y通常是有偏的,而且不一致。

现在假设我们有另一组独立于ϵ的q工具变量(IVs)Z,其中q≥p。如果q=p,我们可以直接应用IV来估计β,但如果q>p,我们有更多的IV,而不是我们需要的。简单地抛弃IVs是低效的,2SLS回归是一个通过合理的方式将IVs的数量减少到p的程序。

2SLS的第一阶段通过多元普通最小二乘法对模型矩阵X中的所有回归变量进行回归,得到q×p的回归系数矩阵B=(Z⊤Z)-1Z⊤X,以及拟合值Xˆ=ZB。B的列相当于X的每一列对Z的单独最小二乘回归产生的系数。如果X的某些列是外生的,那么这些列也会出现在Z中,因此,XˆX^中与外生调节器有关的列只是复制了X的相应列。

由于XˆX^的列是Z的列的线性组合,它们(渐进地)与ε不相关,使它们成为估计回归方程的合适IV。这个IV步骤是Theil方法中2SLS的第二个阶段。

作为一种替代方法,我们可以通过对XˆX^进行OLS回归来获得完全相同的β的估计值b2SLS,产生b2SLS=(Xˆ⊤Xˆ)Xˆ⊤y。这就是巴斯曼的方法,也是 “2SLS “这个名字的由来。


课程

R语言数据分析挖掘必知必会

从数据获取和清理开始,有目的的进行探索性分析与可视化。让数据从生涩的资料,摇身成为有温度的故事。

立即参加

无论我们把第二阶段看成是IV估计还是OLS回归,我们都可以把这两个阶段合并成一个公式。

这就是sem包中的tsls()函数(Fox, Nie, and Byrnes 2020)所做的,但是从开发回归诊断的角度来看,通过两个不同的OLS回归来计算2SLS估计值是有利的,这就是ivreg()所采用的方法。

对2Sls回归异常-数据诊断

就我们所知,用2SLS拟合的回归模型的诊断是一个相对被忽视的话题,但Belsley, Kuh和Welsch(1980, 266-68)简要地讨论了这个问题。删除诊断法直接评估每个案例对拟合回归模型的影响,方法是删除案例,重新拟合模型,并注意到回归系数或其他回归输出,如残差标准差,如何变化。

对于有影响的数据,总是可以通过粗暴的计算来获得案例删除诊断,即用每个案例依次删除来重新拟合模型,但这种方法效率低下,因此在大样本中没有吸引力。对于某些类别的统计模型,如广义线性模型(如Pregibon 1981),对个案删除诊断的计算要求较低的近似值是可用的,而对于线性模型,有效的 “更新 “公式是可用的(如Belsley, Kuh, and Welsch 1980所描述的),允许精确计算个案删除诊断的。

事实证明,正如Belsley、Kuh和Welsch所指出的,Phillips(1977年,公式15和16)给出了2SLS回归的精确更新公式,允许有效地计算个案选择统计。


R语言工具变量与两阶段最小二乘法

阅读文章


其中,b2SLS-i是去除第ii种情况后的2SLS回归系数向量,以及

这里,yi是第i个案例的因变量值,x⊤ixi⊤是模型矩阵X的第i行,z⊤izi⊤是工具变量模型矩阵Z的第i行。


随时关注您喜欢的主题


Belsley, Kuh和Welsch特别研究了(用我们的符号)dfbetai=b2SLS-b2SLS-i的值。他们还讨论了残差标准差s-i的删除值。

然后,Belsley、Kuh和Welsch计算它们对拟合值(和回归系数)影响的综合度量dffits为

其中(如前)x⊤ixi⊤是模型矩阵X的第i行,XˆX^是第二阶段回归变量的模型矩阵。

代表将y转换为拟合值的n×n矩阵,yˆ=H∗y。在OLS回归中,类似的量是hat矩阵H=X(X⊤X)-1X⊤。Belsley, Kuh和Welsch指出,H∗与H不同,它不是一个正交投影矩阵,将y正交地投影到X的列所跨越的子空间上。特别是,尽管H∗和H一样,是等值的(H∗=H∗H∗),并且trace(H∗)=ptrace(H∗)=p,但H∗和H不同,是不对称的,因此它的对角线元素不能被当作杠杆的总结性措施,也就是说,不能被当作hat值。

Belsley, Kuh和Welsch建议简单地使用第二阶段回归的hat值。这些是H2=Xˆ(Xˆ⊤Xˆ)-1Xˆ⊤的对角线条目hi=hii。我们在下面讨论一些替代方案。

除了hatvalues、dfbeta、s-i和dfits之外,还计算cook距离Di,这基本上是dfits的一个稍有不同的比例版本,它使用总体残差标准差s来代替删除的标准差s-i。

因为它们具有相等的方差,并且在正态线性模型下近似于t分布,所以 studentized残差对于检测异常值和解决正态分布误差的假设非常有用。studentized残差与OLS回归相类似,定义为

其中ei=yi-x⊤ib 2SLS是第i种情况的因变量残差。

如前所述,Belsley, Kuh, and Welsch (1980)建议使用第二阶段回归的 hatvalues。这是一个合理的选择,但是它有可能遗漏那些在第一阶段有高杠杆率但在第二阶段回归中没有的案例。让h(1)i代表第一阶段的hatvalues,h(2)i代表第二阶段的hatvalues。如果模型包括一个截距,两组hatvalues都以1/n和1为界,但第一阶段的平均hatvalues是q/n,而第二阶段的平均hatvalues是p/n。为了使两个阶段的hatvalues具有可比性,我们将每个hatvalues除以其平均值,h(1∗)i=h(1)iq/n;h(2∗)i=h(2)ip/n。然后我们可以把两阶段的hatvalue定义为每种情况下两者中较大的一个,hi=(p/n)×max(h(1∗)i,h(2∗)i),或者定义为它们的几何平均。

数据在Kmenta(1986年)中用来说明(通过2SLS和其他方法)对线性联立方程计量经济学模型的估计。

异常数据诊断

标准的R回归模型通用方法,包括anova()(用于模型比较),predicted()用于计算预测值,model.matrix()(用于模型或第一或第二阶段的回归),print(),residuals()(有几种),summary(),update(),和vcov()。

例子

这些数据代表了经济从1922年到1941年的年度时间序列,有以下变量。

  • Q,人均食品消费
  • P,食品价格与一般消费价格的比率
  • D, 可支配收入
  • F, 前一年农民收到的价格与一般消费价格的比率
  • A, 年为单位的时间

该数据集很小,我们可以对其进行检查。

估计以下两个方程式模型,第一个方程式代表需求,第二个代表供应。

变量D、F和A被视为外生变量,当然常数回归因子(一列1)也是如此,而两个结构方程中的P是内生解释变量。由于有四个工具变量可用,第一个结构方程有三个系数,是过度识别的,而第二个结构方程有四个系数,是刚刚识别的。

外生变量的数值是真实的,而内生变量的数值是由Kmenta根据模型生成(即模拟)的,参数的假设值如下。

解决内生变量P和Q的结构方程,可以得到模型的简化形式

Kmenta独立地从N(0,1)中抽出20个δ1和δ2的值,然后设定ν1=2δ1和

结构方程估计如下(比较Kmenta 1986, 686)。

默认情况下,summary()会输出2SLS回归的三个 “诊断 “测试的结果。这些测试不是本文的重点,所以我们只对它们进行简单的评论。

  • 一个好的工具变量与一个或多个解释变量高度相关,同时与误差保持不相关。如果一个内生的回归者与工具变量只有微弱的关系,那么它的系数将被不精确地估计。在弱工具的诊断测试中,我们希望有一个大的测试统计量和小的p值,Kmenta模型中的两个回归方程就是如此。
  • 应用于2SLS回归中,Wu-Hausman检验是对内生性的一种检验。如果所有的回归者都是外生的,那么OLS和2SLS的估计都是一致的,并且OLS的估计更有效,但是如果一个或多个回归者是内生的,那么OLS的估计就不一致了。大的检验统计量和小的p值,就像在这个例子中一样,表明OLS估计器是不一致的,因此,2SLS估计器是首选。
  • Sargan检验是对过度识别的检验。也就是说,在一个过度识别的回归方程中,如Kmenta的需求方程中,工具变量比要估计的系数多,工具变量有可能提供关于系数值的冲突信息。因此,大的检验统计量和小的Sargan检验的pp值表明,该模型被错误地指定了。在这个例子中,尽管我们知道(通过数据的构建方式)需求方程是正确的,但我们还是偶然得到了一个适度小的pp值0.084。Sargan检验不适用于刚刚确定的回归方程,其工具变量和系数的数量相等,如Kmenta的供给方程。

lm “类对象的几个方法与ivreg()产生的对象正常工作。例如,”ivreg “对象的plot()方法调用了相应的 “lm “方法并产生了可解释的图,这里是Kmenta模型中需求方程的2SLS拟合。

par(mfrow=c(2, 2))
plot(deq)

然而,在这种情况下,我们更喜欢描述的这些诊断图的版本。

数据表现良好。例如,在第一个结构方程中,学生化残差的QQ图和hatvalues、学生化残差和库克cook距离的 “影响图 “都是不明显的,除了几个高杠杆但在一起的案例。

qqPlot
influence

影响图中的圆圈面积与Cook’s D成正比,水平线画在学生化残差标度的0和±2处(rstudent=2处的水平线不在图中),垂直线在2×h¯和3×h¯处。

为了产生一个更有趣的例子,我们将把高杠杆的第20种情况(即1941年)的QQ值从Q20=106.232改为Q20=95,这个值完全在数据中QQ的范围内,但与其他数据不一致。

然后重复对第一个结构方程的2SLS拟合,并将结果与未被破坏的数据进行比较,发现回归系数有很大变化。

compareCoefs(deq, deq1)

有问题的第20个案例(1941年)通过异常数据回归诊断法清楚地显示出来。

qqPlot(deq1)
outlier
influence Plot
avPlots(deq1)

去掉第20种情况,产生的估计系数接近于未被破坏的数据的系数。

compareCoefs(deq, deq1, deq1.20)

估计系数的标准误差比原来大,因为我们现在有19个而不是20个案例,也因为解释变量的变化减少了。

发现hatvaues的三种定义是否对这个例子产生了实际的影响,是有一定的意义的。三种hatvalues的散点图矩阵表明,它们都产生了类似的结果。

最后,让我们验证一下删除诊断的计算结果是否正确。

非线性诊断法

Cook(1993)和Cook and Croos-Dabrera(1998)系统地探讨了成分、残差图作为非线性诊断的理论属性。按照这些作者的说法,并把重点放在解释变量x1上,让我们假设响应y与x1的部分关系可能是非线性的,由部分回归函数f(x1)表示,而y与其他xxs的部分关系是线性的,因此,数据的准确模型是。

我们不知道f(),所以改用工作模型来拟合

在我们的例子中,通过2SLS回归,得到估计的回归系数a′,b′1,b′2,…,b′k。Cook和Croos-Dabrera的工作表明,只要回归估计是一致的,XXS是线性相关的。部分残差b′1×1+e可以被绘制出来,并对x1x1进行平滑处理,以显示f()的估计。其中e=y-(a′+b′1×1+b′2×2+⋯b′kxk)是因变量残差。在实践中,如果x1和其他xxs之间有很强的非线性关系,或者y与另一个与x1相关的x有非线性关系,那么分量加残差图就会被分解为f()的准确表示。

Fox和Weisberg(2018)将成分加残差图扩展到更复杂的回归模型,例如可以包括交互作用,将偏残差添加到预测变量效应图中。这些图也可以应用于由2SLS回归拟合的线性模型。

诊断非线性:一个例子

我们再一次转向Kmenta的数据和模型的需求方程来说明成分残差图,数据再一次表现良好。为一个加法回归方程中的所有数字解释变量构建了分量残差图。比如说。

crPlots(deq, smooth=list(span=1))

我们在图中为局部加权回归loess 平滑(Cleveland, Grosse, and Shyu 1992)设置了一个较大的跨度,因为在数据集中只有n=20个案例。跨度的默认值是2/3。在每个面板中,红线给出的loess 平滑度与蓝线给出的最小二乘线紧密匹配,蓝线代表的是解释变量方向的拟合回归面,左边是P,右边是D。因此,两种偏关系似乎都是线性的。

CERES图(Cook 1993),是成分加残差图的一个版本,它使用平滑器而不是线性回归,因此对预测因子之间的非线性关系更加稳定。

ceresPlots(deq, smooth=list(span=1))

在当前的例子中,这是一个加性模型,我们得到的图形与之前的基本相同,只是y轴的缩放比例不同。

plot(predictorEffects)

预测效应图中的蓝色阴影区域代表拟合的部分回归线周围95%的置信度包络。

然而,假设我们对数据拟合了错误的模型。

deq2 <- update(deq, . ~ I((P - 85)^4/10^5) + D)
crPlots(deq2, smooth=list(span=1))

因为max(P)/min(P)=113.49/86.50=1.3的比率不比1大多少,所以我们在把变量提高到4次方之前,从P中减去一个比min(P)略小的数字,以引起拟合部分回归曲线中的非线性。变换后的P的成分加残差图清楚地反映了由此产生的缺乏拟合,而D的图仍然是合理的线性。

带有部分残差的预测器效应图显示了对同一情况的不同看法,它将P而不是转换后的P放在横轴上,并揭示了拟合的非线性部分回归函数未能捕获数据的线性模式。

plot(predictorEffects(deq2, residuals=TRUE), 
     partial.residuals=list(span=1))

蓝线代表拟合模型,红线代表平滑后的偏残差;两条线之间的差异表明缺乏拟合。

非恒定误差方差

标准的最小二乘法非恒定方差(”异方差”)诊断法可以直接延伸到2SLS回归中。例如,我们可以绘制残差与拟合值的对比图,以发现前者的变异性随着后者的水平而变化(通常是增加)的趋势。对于的模型中的需求方程。

plot(fitted(deq), rstudent(deq))
abline(h=0)

似乎没有问题。

Fox(2016)提出了这个图形的一个变体,改编了Tukey的扩散水平图(Tukey 1977),绘制了绝对螺距残差的对数与拟合值的对数,假设后者是正数。如果该图的拟合线的斜率为b,则方差稳定化的功率转换由yλ=y1-b给出。因此,如果b>0,建议的变换是顺着Tukey的幂和根的阶梯,例如,λ=1-b=1/2代表平方根变换,λ=1-b=0代表对数变换,以此类推。对于模型,我们有

这表明分布有随水平提高的轻微趋势。λ=-2.45的转换似乎很强,直到我们注意到QQ的值离0很远,而且最大和最小的值Qmax/Qmin=106.23/92.42=1.15的比率接近1,所以Q-2.45几乎是QQ的线性转换,也就是说,实际上根本没有转换。

由Breusch和Pagan(1979)提出的最小二乘回归中的非恒定误差方差的普通分数测试,是基于模型的

其中函数g()是未指定的,变量z1,…,zs是误差方差的预测因子。在最常见的应用中,由Cook和Weisberg(1983)独立提出,有一个zz,即回归的拟合值yˆ,尽管使用初级回归中的回归者x作为zs也很常见。测试是通过将标准化残差的平方e2i/σˆ2回归到zs上实现的,其中σˆ2=∑e2i/n。然后,在误差方差不变的无效假设下,该辅助回归的回归平方和除以2的渐近分布为χ2s。

Breusch-Pagan/Cook-Weisberg检验很容易适应2SLS回归。对于需求方程。

在这里,第一个检验是针对拟合值的,第二个更一般的检验是针对需求方程中的解释变量的;这两个检验的p值都很大,表明没有什么证据反对恒定方差的假说。

2SLS回归中对非恒定方差的补救方法与最小二乘回归中的补救方法相似。

  • 我们已经提出,如果误差方差随着响应水平的提高(或降低),并且因变量是正的,那么我们就可以通过对因变量进行幂变换来稳定误差方差。
  • 另外,如果我们知道误差的方差与一个常数成正比,那么我们可以对2SLS估计使用反方差加权。
  • 最后,我们可以在2SLS中使用系数协方差矩阵的估计(或自举法:例如,见Davison和Hinkley 1997)来修正非恒定误差方差的标准误差,就像Huber(1967)和White(1980;也见Long和Ervin 2000)提出的最小二乘法回归那样。

对于例子,非恒定误差方差的证据是轻微的,标准误差与传统的2SLS标准误差相似,甚至比它略小。

我们将修改数据以反映非恒定误差方差,像最初那样从还原形式方程中重新生成数据,将内生变量P和Q表示为外生变量D、F和A的函数,以及还原形式误差ν1和ν2。


    w <- 3*(EQ - min(EQ) + 0.1)/(max(EQ) - min(EQ)) 
    v1 <- v1*w # 非恒定方差
    Q <- EQ + v1
    P <- EP + v2

将采样的简化形式误差v1与Q的期望值作图,显示出明显的异质性模式。

 plot(EQ, v1))

然后将需求方程与新的数据集重新匹配,我们得到

而非恒定的误差方差在诊断中得到了明显的反映;例如:

ncvTest(deq2)

从建议的QQ的幂变换的极值λ=-23,反映了(正如我们之前指出的)max(Q)/min(Q)并没有比1大多少。

在我们的例子中,标准误差与传统的标准误差没有太大区别。

如前所述,bootstrapping 提供了一种替代标准误差的方法,作为对非恒定误差方差的修正,实现了个案再抽样的bootstrapping ,并返回一个适合与boot包中的函数一起使用的 “boot “类对象(Davison和Hinkley 1997;Canty和Ripley 2020)。比如说。

b.deq2 <- Boot(deq2)

在这个例子中,bootstrap的标准误差比传统的标准误差大。

Boostrap置信区间也可以从Boot()返回的对象中计算出来,默认情况下报告BCa(偏差校正,加速)区间(。

confint(b.deq2)

加权的2SLS回归

假设我们修改了回归模型y=Xβ+ε,那么现在Nn(0,σ2W-1)其中W=diag{wi}是一个已知反方差权重的n×n对角矩阵;即V(εi)=σ2/wi。如前所述,X的某些列可能与误差ε相关,但我们有足够的工具变量Z,它们与误差无关。

那么加权的2SLS估计是

或者,我们可以将2SLS的两个阶段视为加权最小二乘法(WLS)问题,在每个阶段都要最小化加权残差平方和。

Phillips的2SLS回归的更新公式也可以针对加权情况进行修改,但是更简单的方法(是将加权2SLS问题转换成非加权问题,通过使用W1/2=diag{wi–√},W的Cholesky平方根将数据转换为恒定方差。W的平方根特别简单,因为W是对角线的。然后在Phillips的更新公式中,我们用y∗=W1/2y代替y,用X∗=W1/2X代替X,用Z∗=W1/2Z代替Z。

对于修改后的数据,我们知道需求方程的误差方差与变量w成反比。这反映了数据的构建方式。因此,加权的2SLS估计被计算为

将求和残差与拟合值作图,并测试非恒定误差方差,并不表明有异方差问题,但有一个相对较大的求和残差,约为-3,与其他数值相比有些突出。

plot(fitted(deqw), rstudent(deqw))

Bonferroni离群值测试表明,学生化残差并不是异常大,模型是正确的。

outlierTest

共线性关系诊断

除了异常数据诊断外,Belsley, Kuh和Welsch(1980)还简要地将他们的共线性关系诊断方法扩展到2SLS回归中。我们认为,这种将共线性关系同化为数值不稳定性的方法是有缺陷的,因为它考虑到了 “与截距的共线性关系”。也就是说,数值远离0的回归者与常数回归者的乘积之和很大,产生了截距的大标准误差,只是反映了截距将拟合的回归面远远超出了数据范围的事实。

Fox和Monette(1992)描述了一种基于广义方差膨胀因子的最小二乘法拟合的线性模型中串联性诊断的替代方法。广义方差膨胀因子采用了系数的估计协方差矩阵,一般适用于有线性预测因子的模型,包括由2SLS估计的线性模型。

例如,对于模型中的需求方程。

sqrt(vif(deq))

取VIF的平方根将它们放在系数标准误差的刻度上。也就是说,P和D的系数的标准误差比估计的系数不相关时要大23%。像这里一样,模型中的每个项只有一个系数时,广义和普通方差膨胀因子是一致的。P和D的VIFs相等是两个回归变量(超越回归常数)的情况下所特有的。

边际/条件图是由car软件包中的mcPlots()函数生成的,它将添加变量图叠加到相应的回归因子边际散点图上。这些图使我们能够直观地看到由于共线性关系造成的每个系数估计精度的降低,共线性关系降低了回归变量相对于其边际变化的条件变化。 例如,对于需求方程。

Plots(deq)

每个面板中的蓝色点代表边际散点图,红色点代表(部分)添加变量图,箭头显示两组点之间的关系。

结语

仔细的回归分析需要有效地观察数据的方法。许多潜在的问题可以通过在拟合回归模型之前检查数据来解决,减少(如果不是消除)拟合后诊断的必要性。毫无疑问,采用2SLS的谨慎的数据分析者一直都是这样做的。然而,拥有允许人们对2SLS拟合的回归模型进行批评的方法,至少在某些情况下会建议对模型进行改进,或者对数据进行修正。

参考文献

Basmann, R. L. 1957. “A Generalized Classical Method of Linear Estimation of Coefficients in a Structural Equation.” Econometrica 25: 77–83. https://doi.org/10.2307/1907743.

Belsley, D. A., E. Kuh, and R. E. Welsch. 1980. _Regression Diagnostics: Identifying Influential Data and Sources of Collinearity_. New York: John Wiley & Sons. Regression Diagnostics | Wiley Series in Probability and Statistics.

Breusch, T. S., and A. R. Pagan. 1979. “A Simple Test for Heteroscedasticity and Random Coefficient Variation.” Econometrica 47: 1287–94. https://doi.org/10.2307/1911963.


可下载资源

关于作者

Kaizong Ye拓端研究室(TRL)的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在上海财经大学完成了统计学专业的硕士学位,专注人工智能领域。擅长Python.Matlab仿真、视觉处理、神经网络、数据分析。

本文借鉴了作者最近为《R语言数据分析挖掘必知必会 》课堂做的准备。

​非常感谢您阅读本文,如需帮助请联系我们!

 
QQ在线咨询
售前咨询热线
15121130882
售后咨询热线
0571-63341498

关注有关新文章的微信公众号


永远不要错过任何见解。当新文章发表时,我们会通过微信公众号向您推送。

技术干货

最新洞察

This will close in 0 seconds