一行代码安慰剂检验--permute命令应用大全--12篇《中国工业经济》+《数量经济技术经济研究》论文推荐

学术   教育   2024-11-03 22:39   陕西  

12篇《中国工业经济》+《数量经济技术经济研究》上一行代码安慰剂检验论文推荐--permute命令

序号论文题目来源期数
1人口资源大国的服务化转型之路——来自中国“高校扩招”的理论分析与微观证据《数量经济技术经济研究》2024年第8期
2大国重企:“一带一路”倡议与中国企业社会责任《数量经济技术经济研究》2024年第8期
3政府邻近、公共投资与县域经济发展《数量经济技术经济研究》2024年第6期
4产能过剩与环境规制相机选择——基于正式与非正式环境规制视角《中国工业经济》2024年第3期
5数据跨境流动能否抑制国际贸易逃税——来自海关信息交换的证据《数量经济技术经济研究》2024年第3期
6东道国数据保护是否会抑制中国电商跨境并购《中国工业经济》2023年第2期
7双循环视角下技术转移对产业升级的影响研究《数量经济技术经济研究》2023年第6期
8ESG评级能否促进企业绿色转型?——基于多时点双重差分法的验证《数量经济技术经济研究》2023年第7期
9绿色信贷政策与高污染企业绿色转型:基于减排和发展的视角《数量经济技术经济研究》2023年第7期
10联网发展如何优化企业资源配置——基于企业库存调整的视角《中国工业经济》2023年第8期
11清洁能源发展的健康效应——以西气东输工程为例《数量经济技术经济研究》2024年第10期
12央行沟通公告有助于提升政策利率的传导效率吗?《数量经济技术经济研究》2024年第10期


经济学研究中的机器学习与因果推断专题

20217--2024年,8年Stata经典课程


新课纲、新升级

AI赋能科研

AI全流程辅助Stata机器学习与因果推断学术应用

含AI大模型基础课+因果推断+双重机器学习(Stata操作)等前沿内容

原理+操作+论文+前沿

超长回放,详询工作人员报名


推荐12篇最新DID“学术新星”新方法应用__《中国工业经济》+《数量经济技术经济研究》上DID安慰剂检验方法_一行代码随机抽样500/1000次

12、央行沟通公告有助于提升政策利率的传导效率吗?

基准回归

  • reg

DID

  • xtreg

平行趋势检验

安慰剂检验

  • permute
  • dpplot

稳健性检验


11、清洁能源发展的健康效应——以西气东输工程为例

基准回归

  • reg

  • reghdfe

平行趋势检验

  • reghdfe

安慰剂检验

  • permute
  • dpplot

推荐10篇最新DID安慰剂应用__《中国工业经济》+《数量经济技术经济研究》上DID安慰剂检验方法_一行代码随机抽样1000次

第1篇、人口资源大国的服务化转型之路——来自中国“高校扩招”的理论分析与微观证据

《数量经济技术经济研究》2024年第8期

绘图

  • coefplot

安慰剂检验

  • permute
  • dpplot

其他回归

  • reghdfe

第2篇、大国重企:“一带一路”倡议与中国企业社会责任
《数量经济技术经济研究》2024年第8期

基准结果***

  • reg

稳健性检验

  • nbreg
  • reghdfe

安慰剂检验

  • permute
  • dpplot


第3篇、2024年第6期上最新应用:DID模型安慰剂检验:permute命令_两步出图

来源:《数量经济技术经济研究》2024年第6期,政府邻近、公共投资与县域经济发展


文章安慰剂检验命令为:

  • permute
  • dpplot

原文进行安慰剂检验结果见图3,如下所示:

Stata操作结果如下:


第4篇、2024年第3期《中国工业经济》上最新应用:DID模型安慰剂检验:permute命令_两步出图

来源:中国工业经济,论文题目:产能过剩与环境规制相机选择——基于正式与非正式环境规制视角


该文使用交叠DID

稳健性检验

  • 用事件研究法进行平行趋势假设检验
  • 稳健性检验:
  • ①安慰剂检验;
  • ②替换解释变量
  • ③替换被解释变量
  • ④加入城市与年份固定效应的交乘项
  • 其他

主体回归命令:

  • reghdfe

稳健性检验部分 平行趋势检验

  • reghdfe

安慰剂检验

  • permute
  • dpplot

安慰剂检验命令为:

  • permute

代码为:





第5篇、2024年第3期《数量经济技术经济研究》上最新应用:DID模型安慰剂检验:permute命令_两步出图

来源:数量经济技术经济研究,论文题目:数据跨境流动能否抑制国际贸易逃税——来自海关信息交换的证据


该文使用双重差分进行实证检验。主要方法如下:

  • 描述性统计分析

  • 基准回归

  • 动态效应分析(平行趋势检验)

  • 安慰剂检验

  • 三重差分

  • 稳健性分析

主要命令为:回归分析

  • reghdfe 动态效应估计结果

  • reghdfe


安慰剂检验命令为:

  • permute
  • 将下述命令里面的reps(10)修改为1000,即可得到原文结果


原文图为:


第6篇、2023年《中国工业经济》最新应用:permute:一行代码实现DID模型安慰剂检验

2023年第2期《中国工业经济》上有一篇论文应用到了permute命令,可以实现DID模型安慰剂检验

原文图为:

图片

代码如下

图片
图片
图片
图片
图片

第7篇、一行代码DID安慰剂检验随机抽样500/1000次_2023年第6期《数量经济技术经济研究》最新应用

来源:数量经济技术研究\2023.06\双循环视角下技术转移对产业升级的影响研究

2023年3月,我们给大家推荐了2023年《中国工业经济》最新应用:permute:一行代码实现DID模型安慰剂检验,详见:

使用这个命令,就可以一行代码进行DID安慰剂检验随机抽样500/1000次,然后再进行绘图。

今天我们给大家推荐第二篇文章,2023年第6期《数量经济技术经济研究》最新应用的文章,也是使用该命令进行相关操作的。

1、简介

采用数据挖掘技术获取2007 ~ 2019年中国283个城市的发明专利和实用新型专利转让详情数据, 从国内、国际两个视角考察技术转移对产业升级的影响。

2、基准模型

为检验技术转移对产业升级的影响,从国际技术转移、国内技术转移两个维度建立如下基准回归模型:

国内技术转移对产业升级的影响

国际技术转移对产业升级的 影响

其中

  • indupit 为被解释变量产业升级;

  • zr、zc、fzr、fzc 分别代表解释变量国内技 术转入、国内技术转出、国际技术转入、国际技术转出;

  • Xit 为控制变量集合;

  • 另外方程中加入时间固定效应、个体固定效应;

  • εit 为随机干扰项;

  • 𝛽1、𝛽2、𝛽3 为相应系数。

3、回归分析‘

采用时间+地区双固定效应模型对模型(1)和(2)进行基准回归,为比较不同技术转移对产业升级的影响,将 lnzr、lnzc、lnfzr、lnfzc 同时放入模型,然后进行回归。

4、稳健性检验

从替换被解释变量、替换模型、工具变量法三个方面对技术转移影响产业升级的基准回归结果进行稳健性检验。

5、外生冲击检验

将科技成果转移转化示范区政策视作一个准自然实验,探究其对产 业升级的影响。考虑到科技成果转移转化示范区相继于2016 年、2017 年、2018 年分批次获得批复,采用多时点双重差分模型研究国家科技成果转移转化示范区政策对产业升级的影响,构建如下模型:

其中

  • indupit为被解释变量产业升级;
  • didit 为政策变量,即处理组虚拟变量与政策实施 时间虚拟变量的乘积。其中,处理组虚拟变量设定原则为在样本期内国家科技转移转化示范 区覆盖的城市赋值为 1,未覆盖的赋值为 0;科技成果转移转化示范区政策实施时间虚拟变 量设立的原则是城市在获批之前赋值为 0,之后赋值为 1;
  • Xit 为控制变量集合;
  • 其他参数通基准回归模型

5、平行趋势及动态效应进行检验

在进行回归前,根据事件研究的基本方法对模型的平行趋势及动态效应进行检验,结果表明采用双重差分估计方法是有效的。

6、安慰剂检验

随机抽样重复 500 次,并将这 500 个分布值进行观 测。可以发现,其分布在 0 左右且近似于正态分布,表明其他非观测因素不会产生显著影响 。

. use "平衡面板数据.dta"

cd C:\Users\Metrics\Desktop  
C:\Users\Metrics\Desktop


cap erase "simulations.dta"

. permute did beta = _b[did] se = _se[did] df = e(df_r), reps(500) seed(123) saving("simulatio
> ns.dta"
):reghdfe indup did lnpergdp rdm lnroad peo lnfin fdi mark, absorb(id year) vce(robus
> t)
(running reghdfe on estimation sample)

Permutation replications (500)
----+--- 1 ---+--- 2 ---+--- 3 ---+--- 4 ---+--- 5 
..................................................    50
..................................................   100
..................................................   150
..................................................   200
..................................................   250
..................................................   300
..................................................   350
..................................................   400
..................................................   450
..................................................   500

Monte Carlo permutation results                 Number of obs     =      3,679

      command:  reghdfe indup did lnpergdp rdm lnroad peo lnfin fdi mark, absorb(id year)
                    vce(robust)
         beta:  _b[did]
           se:  _se[did]
           df:  e(df_r)
  permute var:  did

------------------------------------------------------------------------------
T            |     T(obs)       c       n   p=c/n   SE(p) [95% Conf. Interval]
-------------+----------------------------------------------------------------
        beta |   .0742583       3     500  0.0060  0.0035  .0012391   .0174337
          se |   .0432564       0     500  0.0000  0.0000         0   .0073506
          df |       3376     500     500  1.0000  0.0000  .9926494          1
------------------------------------------------------------------------------
Note: Confidence intervals are with respect to p=c/n.
Note: c = #{|T| >= |T(obs)|}


. use "simulations.dta", clear
(permute did : reghdfe)

. gen t_value = beta / se

. gen p_value = 2 * ttail(df, abs(beta/se))

. ssc install dpplot


. dpplot beta, xtitle("Estimator", size(*0.8)) xlabel(, format(%4.3f) labsize(small)) ytitle("
> Density"
, size(*0.8)) ylabel(, nogrid format(%4.3f) labsize(small)) note("") caption("") gra
> phregion(fcolor(white))

第8篇、DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次

文章题目:ESG评级能否促进企业绿色转型?——基于多时点双重差分法的验证

模型:多时点DID模型

利用多时点双重差分法,构建模型,为了进一步考察ESG 评级的动态效果并进行平行趋势检验,构建动态双重差分模型

安慰剂检验:为了检验ESG 评级对企业绿色转型的影响不是由其他随机性因素导致的,采用安慰剂检验对ESG 评级效果的偶然性加以识别。随机抽样500 次构建“伪政策虚拟变量”

  • PSM-DID 法
  • 异质性处理效应检验:进行负权重诊断

安慰剂检验

为了检验ESG评级对企业绿色转型的影响不是由其他随机性因素导致的,本文采用安慰剂检验对ESG评级效果的偶然性加以识别。随机抽样 500 次构建“伪政策虚拟变量”,检验其系数和P值分布,结果如图所示。

图片

图 2 安慰剂检验图---(a)企业绿色创新为被解释变量 操作代码及结果为:

图片
图片
图片
图片

图 2 安慰剂检验图---(b)全要素生产率为被解释变量 操作代码请直接查看官网。

另外2篇该命令最新应用请查看文章:推荐2篇2023年《中国工业经济》及《数量经济技术经济研究》上最新DID安慰剂检验方法——一行代码随机抽样500/1000次

第9篇、DID“学术新星”新方法__2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次

今天给大家推荐一篇期刊论文的do文档,这估计是小编看到的截止目前最清楚明白的do文档了。

该论文方法及检验方法如下:

  • DID模型
  • 变量的平行趋势假设检验
  • 反事实分析--置换检验--随机抽样500次
  • 联合固定效应模型
  • 处理效应模型
  • 预期效应检验
  • 三重差分模型排除其他干扰性因素的影响
  • PSM-DID

该论文do文档模板特点

  • 1、 直接将相关描述分析及回归分析结果展现到do文档里面,能够清楚的与论文原文表格对应起来

  • 2、做的相关检验在do文档里面介绍的也很清晰

  • 3、使用最新的permute命令进行安慰剂检验,这是之前公众号重磅推荐的学术新方法

下面跟着小编一起来看看这篇论文do文档精彩片段

1、permute命令进行安慰剂检验方法命令

 *- 1. 安慰剂检验
 preserve
  permute did b = _b[did] t = _b[did]/_se[did], reps(500) seed(12345)  ///
       saving("$temp_path/simu_po.dta", replace):  ///
    qui reghdfe polint1 did $ctrlist trend, $regopt
  permute did b = _b[did] t = _b[did]/_se[did], reps(500) seed(12345)  ///
       saving("$temp_path/simu_op.dta", replace):  ///
    qui reghdfe tfp_op  did $ctrlist trend, $regopt
  ** 被解释变量为polint1
  use $temp_path/simu_po.dta, clear
  qui sum b, detail
  #d ;
   dpplot b,
    xline(`r(mean)', lpattern(solid) lcolor(red) lwidth(medium))
    //xline(-0.477 , lpattern(solid) lcolor(black))
    scheme(qleanmono)
    msy(smcircle_hollow) mcolor(black)
    xtitle("{stSans:系数}"           , size(large) margin(zero))
    ytitle("{stSans:密}""{stSans:度}", size(large) margin(zero) orientation(h))
    saving("$temp_path/Placebo Test of polint1", replace)
    xlabel(-0.02(0.01)0.02 0.00 "0", labsize(large) format(%6.2f) tp(i) tlw(medium))
    ylabel(                        , labsize(large) format(%6.0f) tp(i) tlw(medium))
    xscale(lwidth(medium)) yscale(lwidth(medium))
    line(lcolor(black)     lwidth(medium))
    caption("")            graphregion(margin(medsmall))
     ;
  #d cr
  graph export "$temp_path/Placebo Test of polint1.emf", replace
  ** 被解释变量为tfp_op
  use $temp_path/simu_op.dta, clear
  qui sum b, detail
  #d ;
   dpplot b,
    xline(`r(mean)'
, lpattern(solid) lcolor(red) lwidth(medium))
    //xline(-0.079 , lpattern(solid) lcolor(black))
    scheme(qleanmono)
    msy(smcircle_hollow) mcolor(black)
    xtitle("{stSans:系数}"           , size(large) margin(zero))
    ytitle("{stSans:密}""{stSans:度}", size(large) margin(zero) orientation(h))
    saving("$temp_path/Placebo Test of tfp_op", replace)
    xlabel(-0.02(0.01)0.02 0.00 "0", labsize(large) format(%6.2f) tp(i) tlw(medium))
    ylabel(                        , labsize(large) format(%6.0f) tp(i) tlw(medium))
    xscale(lwidth(medium)) yscale(lwidth(medium))
    line(lcolor(black)     lwidth(medium))
    caption("")            graphregion(margin(medsmall))
     ;
  #d cr
  graph export "$temp_path/Placebo Test of tfp_op.emf", replace
 restore
 eststo clear


2、回归结果以及展现

if `k2' == 1 {
 **# 基准回归
 use    $path/gqwr.dta, clear
 xtset   idcode year
 gen     did = treat * [year >= 2007]
 replace did = treat * 0.42 if 2007.year
 preserve
  ** 污染防治成效
  eststo m11: qui reghdfe polint1 did, $regopt
  eststo m12: qui reghdfe polint1 did  $ctrlist trend, $regopt
  eststo m13: qui reghdfe polint2 did  $ctrlist trend, $regopt
  eststo m14: qui reghdfe polint3 did  $ctrlist trend, $regopt
  ** 全要素生产率
  eststo m21: qui reghdfe tfp_op  did, $regopt
  eststo m22: qui reghdfe tfp_op  did  $ctrlist trend, $regopt
  eststo m23: qui reghdfe tfp_lp  did  $ctrlist trend, $regopt
  loc fe idcode   "id fe"  year      "year fe"  ///
      indcode2 "ind fe" areacode2 "city fe"
  estfe m??, labels(`fe'
)
  #d ;
   esttab m??, replace nogap nocon b(%9.4f) se(%9.4f) ar2(%9.4f)
    indicate("ctrlvars = $ctrlist" "trend = trend" `r(indicate_fe)')
     ;
  #d cr
 restore
 eststo clear
}

/*
----------------------------------------------------------------------------------------------------------------------------
                      (1)             (2)             (3)             (4)             (5)             (6)             (7)   
                  polint1         polint1         polint2         polint3          tfp_op          tfp_op          tfp_lp   
----------------------------------------------------------------------------------------------------------------------------
did               -0.4751***      -0.4772***      -1.2537***      -0.3361***      -0.0915***      -0.0793***      -0.0547***
                 (0.0315)        (0.0313)        (0.1075)        (0.0711)        (0.0212)        (0.0191)        (0.0130)   
ctrlvars               No             Yes             Yes             Yes              No             Yes             Yes   
trend                  No             Yes             Yes             Yes              No             Yes             Yes   
id fe                 Yes             Yes             Yes             Yes             Yes             Yes             Yes   
year fe               Yes             Yes             Yes             Yes             Yes             Yes             Yes   
ind fe                Yes             Yes             Yes             Yes             Yes             Yes             Yes   
city fe               Yes             Yes             Yes             Yes             Yes             Yes             Yes   
----------------------------------------------------------------------------------------------------------------------------
N                  249504          249504          249504          249504          249504          249504          249504   
adj. R-sq          0.6705          0.6729          0.6502          0.7235          0.7089          0.7573          0.8473   
----------------------------------------------------------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001
*/



3、平行趋势检验

if `k3' == 1 {
 **# 平行趋势检验
 use   $path/gqwr.dta, clear
 graph set window fontface     "Times New Roman"
 graph set window fontfacesans "宋体"

 preserve
  gen current = 2007.year * treat * 0.42
  forv i = 11 / 13 {
   replace year = year - 1 if 20`i'
.year
  }
  gen before6 = [1998.year | 1999.year | 2000.year | 2001.year] * treat
  forv i = 5(-1)1 {
   gen before`i' = [year == 2007 - `i'] * treat
  }
  forv i = 1 / 5 {
   gen after`i'  = [year == 2007 + `i'] * treat
  }
  drop  before1
  set l 99
  ** 被解释变量为polint1
  qui reghdfe polint1 before? current after? $ctrlist trend, $regopt
  gen a = (_b[before6] + _b[before5] + _b[before4] + _b[before3] + _b[before2]) / 5
  qui sum a
  #d ;
  coefplot, keep(before? current after?)
   vert trans(*=@-r(mean))
   scheme(qleanmono)
   coeflabels(before6 = 98-01 before5 = 2002 before4 = 2003 before3 = 2004 before2 = 2005
        current = 2007  after1  = 2008 after2  = 2009 after3  = 2011
        after4  = 2012  after5  = 2013)
   msymbol(O) msize(medlarge) mcolor(black)
   addplot(line @b @at,       lcolor(black)  lwidth(thick) lpattern(solid))
   ciopts(recast(rarea)       fcolor(gs0%18) lwidth(none))
   yline(0, lpattern(solid)   lcolor(red)    lwidth(medium))
   xline(6, lpattern(solid)   lcolor(black)  lwidth(medium))
   ytitle("{stSans:系}""{stSans:数}", size(large) orientation(h))
   xtitle("{stSans:年份}"           , size(large))
   xlabel(                    , labsize(large) tp(i) tlw(medium))
   ylabel(-0.8(0.2)0.2 0.0 "0", labsize(large) tp(i) tlw(medium) format(%2.1f))
   xsize(7)               ysize(4)
   xscale(lwidth(medium)) yscale(lwidth(medium))
   graphregion(margin(medsmall))
   saving("$temp_path/Event Study of polint1", replace)
     ;
  #d cr
  cap gr export "$temp_path/Event Study of polint1.emf", replace
  ** 被解释变量为tfp_op
  qui reghdfe tfp_op before? current after? $ctrlist trend, $regopt
  gen b = (_b[before6] + _b[before5] + _b[before4] + _b[before3] + _b[before2]) / 5
  qui sum b
  #d ;
  coefplot, keep(before? current after?)
   vert trans(*=@-r(mean))
   scheme(qleanmono)
   coeflabels(before6 = 98-01 before5 = 2002 before4 = 2003 before3 = 2004 before2 = 2005
        current = 2007  after1  = 2008 after2  = 2009 after3  = 2011
        after4  = 2012  after5  = 2013)
   msymbol(O) msize(medlarge) mcolor(black)
   addplot(line @b @at,       lcolor(black)  lwidth(thick) lpattern(solid))
   ciopts(recast(rarea)       fcolor(gs0%18) lwidth(none))
   yline(0, lpattern(solid)   lcolor(red)    lwidth(medium))
   xline(6, lpattern(solid)   lcolor(black)  lwidth(medium))
   ytitle("{stSans:系}""{stSans:数}", size(large) orientation(h))
   xtitle("{stSans:年份}"           , size(large))
   xlabel(                    , labsize(large) tp(i) tlw(medium))
   ylabel(-0.3(0.1)0.2 0.0 "0", labsize(large) tp(i) tlw(medium) format(%2.1f))
   xsize(7)               ysize(4)
   xscale(lwidth(medium)) yscale(lwidth(medium))
   graphregion(margin(medsmall))
   saving("$temp_path/Event Study of tfp_op", replace)
     ;
  #d cr
  cap gr export "$temp_path/Event Study of tfp_op.emf", replace
 restore
 eststo clear
}

4、PSM-DID

 *- 4. 利用PSM-DID方法解决由可观测因素带来的基准回归自选择问题
 tab treat
 preserve
  duplicates drop idcode, force
  tab treat
 restore
 drop openyear  output    va         asset    fixasset  ///
   curdepr   curasset  debt       pay      vat     capital  ///
   income    cost      interinput finexp   profit  itp  ///
   wastwater cheoxygen sudioxide  employee nprofit
 forv i = 1998 / 2013 {
  preserve
   cap {
    keep if `i'.year
    qui psmatch2 treat $ctrlist, logit n(2) ties com ate cal(0.01)
    save $temp_path/`i'
.dta, replace
   }
  restore
 }
 use $temp_path/1998.dta, clear
 forv k = 1999 / 2013 {
  cap {
   app using $temp_path/`k'.dta
   erase     $temp_path/`k'
.dta
  }
 }
 gen     weight = _weight * 2
 replace weight = int(weight)
 qui reghdfe polint1 did $ctrlist trend if !mi(_weight), $regopt
  est sto m11
 qui reghdfe tfp_op  did $ctrlist trend if !mi(_weight), $regopt
  est sto m12
 qui reghdfe polint1 did $ctrlist trend [fw = weight], $regopt
  est sto m21
 qui reghdfe tfp_op  did $ctrlist trend [fw = weight], $regopt
  est sto m22
 esttab m??, nogap nocon b(%9.4f) se(%9.4f) ar2(%9.4f)
 erase $temp_path/1998.dta
 eststo clear

/*
----------------------------------------------------------------------------
                      (1)             (2)             (3)             (4)   
                  polint1          tfp_op         polint1          tfp_op   
----------------------------------------------------------------------------
did               -0.4750***      -0.0489*        -0.3750***      -0.0637** 
                 (0.0376)        (0.0247)        (0.0296)        (0.0207)   
age                0.0022         -0.0022*         0.0020         -0.0045***
                 (0.0016)        (0.0010)        (0.0019)        (0.0011)   
size1             -0.1628***       0.4333***      -0.2056***       0.4555***
                 (0.0170)        (0.0118)        (0.0198)        (0.0135)   
size2              0.0093          0.1216***       0.0395          0.1227***
                 (0.0187)        (0.0130)        (0.0227)        (0.0147)   
capstr            -0.0956         -0.5049***      -0.0388         -0.4573***
                 (0.0492)        (0.0315)        (0.0573)        (0.0329)   
leverage          -0.0017         -0.2149***       0.0315         -0.1807***
                 (0.0407)        (0.0272)        (0.0453)        (0.0299)   
roa               -0.4813***       2.0723***      -0.5662***       2.1563***
                 (0.0520)        (0.0386)        (0.0549)        (0.0441)   
wage               0.0001          0.0048***       0.0003          0.0043***
                 (0.0002)        (0.0002)        (0.0003)        (0.0002)   
growth            -0.1460***       0.2418***      -0.1965***       0.2240***
                 (0.0130)        (0.0091)        (0.0150)        (0.0099)   
trend              0.0106          0.0484***       0.0285*         0.0437***
                 (0.0116)        (0.0079)        (0.0142)        (0.0093)   
----------------------------------------------------------------------------
N                  126476          126476          498340          498340   
adj. R-sq          0.6215          0.7289          0.7784          0.8442   
----------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001
*/

前沿_2023年第7期《数量经济技术经济研究》上合成DID、DIDm+csdid估计量等DID前沿主题文章 (qq.com)

第3篇DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次 (qq.com)

DID安慰剂检验方法大全(14+种)+推荐2023年第7期《数量经济技术经济研究》上DID主题文章 (qq.com)

前沿推荐_2023年第7期《数量经济技术经济研究》上动态合成双重差分文章操作及应用 (qq.com)

第10篇、DID“学术新星”新方法__23年第8期《中国工业经济》上DID安慰剂检验方法_一行代码随机抽样500/1000次

在刚刚出炉的2023年第8期《中国工业经济》上,有一篇论文使用到了小编2023年3月率先推荐的2023年第2期《中国工业经济》上论文,该文使用到了最新DID安慰剂检验方法_一行代码随机抽样500/1000次,这就是perumute命令。

截止目前,这种进行安慰剂检验的新方法,数量经济学已经推荐了5篇论文,而该方法俨然已经迅速成为DID进行安慰剂检验---随机抽样500/1000次的“学术新星”新方法,因为确实方便快捷,容易上手。

前沿_2023年第7期《数量经济技术经济研究》上合成DID、DIDm+csdid估计量等DID前沿主题文章(qq.com)

第3篇DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次(qq.com)

DID安慰剂检验方法大全(14+种)+推荐2023年第7期《数量经济技术经济研究》上DID主题文章(qq.com)

前沿推荐_2023年第7期《数量经济技术经济研究》上动态合成双重差分文章操作及应用(qq.com)

今天给大家推荐一篇期刊论文,该论文方法及检验方法如下:

  • DID模型基准回归
  • 稳健性检验,随机抽样100次
  • 排除同期政策干扰
  • 更换处理变量
  • 工具变量,进行两阶段最小二乘法(2SLS)回归;
  • 分别在行业、地区、行业—地区维度对标准误进行聚类(cluster)调整
  • 进行系数稳定性分析

下面跟着小编一起来看看这篇论文

1、简介

本文主要考察互联网发展对企业库存的影响,使用企业f在第t年的非产成品库存对数值度量企业库存水平。另外,internetrt表示省份r在第t年的互联网发展水平,用互联网上网人数对数值度量;intintensityi表示行业i的互联网使用密集度;二者交互项是核心解释变量,表示互联网发展;

建立如下模型

其中,下标f、r、t、i分别代表企业、省份、年份、行业(4位码)

  • Xfrti为企业和地区层面控制变量集合
  • αf为企业固定效应
  • λi为行业固定效应
  • γrt为地区—年份固定效应
  • εfrti为随机扰动项

2、DID模型基准回归

模型第(1)列在控制企业、行业和地区—年份固定效应基础上,加入控制变量企业规模和企业年龄

模型第(2)列进一步加入包含企业利润率、资本密集度

模型第(3)列进一步将国有企业虚拟变量与外资企业虚拟变量纳入回归模型

模型第(4)列进一步加入地区交通基础设施指标和地区实际资本水平

3、稳健性检验

3、方法1:随机抽样100次

随机置换核心解释变量 𝑖𝑛𝑡𝑒𝑟𝑛𝑒𝑡𝑟𝑡 × 𝑖𝑛𝑡𝑖𝑛𝑡𝑒𝑛𝑠𝑖𝑡𝑦𝑖中的地区和行业,随机抽样100次,并将 100 次回归的系数统计出来,绘制相应被解释变量下的系数核密度图。

该文使用到了我们推荐的permute命令,命令为

图片

结果为:

下面我们具体学习下该命令

1、命令permute

语法格式:

 Compute permutation test
 permute permvar exp_list [, options] : command

Report saved results
 permute [varlist] [using filename] [, display_options]



选项含义为:

  • permute在蒙特卡罗模拟的基础上估计置换试验的p值。

输入

permute permvar exp_list, reps(#): command
  • 随机排列permvar #times中的值,每次执行命令并从中的表达式中收集exp_list的相关值

  • permvar标识其观测值将被随机排列的变量。

  • 这些p值估计值可以是单侧的:Pr(T* < T)或Pr(T* > T)。默认情况下是双侧的:Pr(|T*| > |T|)。这里T*表示随机排列数据集的统计值,T表示在原始数据上计算的统计值。

  • command定义了要执行的统计命令。大多数Stata命令和用户编写的程序都可以与permute一起使用,因为它们遵循标准的Stata语法。by前缀可能不是命令的一部分。

  • exp_list指定从执行命令开始收集的统计信息。

2、案例应用



数量经济学
见证计量经济学发展,更懂计量更懂你!
 最新文章