序号 | 论文题目 | 来源 | 期数 |
---|---|---|---|
1 | 人口资源大国的服务化转型之路——来自中国“高校扩招”的理论分析与微观证据 | 《数量经济技术经济研究》 | 2024年第8期 |
2 | 大国重企:“一带一路”倡议与中国企业社会责任 | 《数量经济技术经济研究》 | 2024年第8期 |
3 | 政府邻近、公共投资与县域经济发展 | 《数量经济技术经济研究》 | 2024年第6期 |
4 | 产能过剩与环境规制相机选择——基于正式与非正式环境规制视角 | 《中国工业经济》 | 2024年第3期 |
5 | 数据跨境流动能否抑制国际贸易逃税——来自海关信息交换的证据 | 《数量经济技术经济研究》 | 2024年第3期 |
6 | 东道国数据保护是否会抑制中国电商跨境并购 | 《中国工业经济》 | 2023年第2期 |
7 | 双循环视角下技术转移对产业升级的影响研究 | 《数量经济技术经济研究》 | 2023年第6期 |
8 | ESG评级能否促进企业绿色转型?——基于多时点双重差分法的验证 | 《数量经济技术经济研究》 | 2023年第7期 |
9 | 绿色信贷政策与高污染企业绿色转型:基于减排和发展的视角 | 《数量经济技术经济研究》 | 2023年第7期 |
10 | 联网发展如何优化企业资源配置——基于企业库存调整的视角 | 《中国工业经济》 | 2023年第8期 |
11 | 清洁能源发展的健康效应——以西气东输工程为例 | 《数量经济技术经济研究》 | 2024年第10期 |
12 | 央行沟通公告有助于提升政策利率的传导效率吗? | 《数量经济技术经济研究》 | 2024年第10期 |
13 | 研发联盟、开放式创新与企业全要素生产率提升 | 《数量经济技术经济研究》 | 2024年第12期 |
14 | 全国统一大市场与经济增长——来自安徽省加入长三角城市经济协调会的证据 | 《数量经济技术经济研究》 | 2024年第12期 |
15 | “亩均论英雄”改革与企业高质量发展——基于效率变革和动力变革的视角 | 《数量经济技术经济研究》 | 2024年第12期 |
20217--2024年,8年Stata经典课程
新课纲、新升级
AI赋能科研
AI全流程辅助Stata机器学习与因果推断学术应用
含AI大模型基础课+因果推断+双重机器学习(Stata操作)等前沿内容
原理+操作+论文+前沿
超长回放,详询工作人员报名
推荐15篇最新DID“学术新星”新方法应用__《中国工业经济》+《数量经济技术经济研究》上DID安慰剂检验方法_一行代码随机抽样500/1000次
15、全国统一大市场与经济增长——来自安徽省加入长三角城市经济协调会的证据
借鉴Beck等(2010)的做法,构建渐进双重差分模型
基准回归
平行趋势检验
平行趋势敏感性经验
稳健性检验
1.溢出效应检验 2.排除其他政策干扰 3.地理断点回归 4.Goodman-Bacon分解 安慰剂检验 其他稳健性检验
14、“亩均论英雄”改革与企业高质量发展——基于效率变革和动力变革的视角
渐进式双重差分模型
平行趋势检验
诚实双重差分方法(Honest DID)
双向固定效应偏误识别与异质性处理效应检验
安慰剂检验
稳健性检验
13、研发联盟、开放式创新与企业全要素生产率提升
基准回归
12、央行沟通公告有助于提升政策利率的传导效率吗?
基准回归
reg
DID
xtreg
平行趋势检验
安慰剂检验
permute dpplot
稳健性检验
11、清洁能源发展的健康效应——以西气东输工程为例
基准回归
reg
reghdfe
平行趋势检验
reghdfe
安慰剂检验
permute dpplot
推荐10篇最新DID安慰剂应用__《中国工业经济》+《数量经济技术经济研究》上DID安慰剂检验方法_一行代码随机抽样1000次
第1篇、人口资源大国的服务化转型之路——来自中国“高校扩招”的理论分析与微观证据
《数量经济技术经济研究》2024年第8期
绘图
coefplot
安慰剂检验
permute dpplot
其他回归
reghdfe
第2篇、大国重企:“一带一路”倡议与中国企业社会责任
《数量经济技术经济研究》2024年第8期
基准结果***
reg
稳健性检验
nbreg reghdfe
安慰剂检验
permute dpplot
第3篇、2024年第6期上最新应用:DID模型安慰剂检验:permute命令_两步出图
来源:《数量经济技术经济研究》2024年第6期,政府邻近、公共投资与县域经济发展
文章安慰剂检验命令为:
permute dpplot
原文进行安慰剂检验结果见图3,如下所示:
Stata操作结果如下:
第4篇、2024年第3期《中国工业经济》上最新应用:DID模型安慰剂检验:permute命令_两步出图
来源:中国工业经济,论文题目:产能过剩与环境规制相机选择——基于正式与非正式环境规制视角
该文使用交叠DID
稳健性检验
用事件研究法进行平行趋势假设检验 稳健性检验: ①安慰剂检验; ②替换解释变量 ③替换被解释变量 ④加入城市与年份固定效应的交乘项 其他
主体回归命令:
reghdfe
稳健性检验部分 平行趋势检验
reghdfe
安慰剂检验
permute dpplot
安慰剂检验命令为:
permute
代码为:
第5篇、2024年第3期《数量经济技术经济研究》上最新应用:DID模型安慰剂检验:permute命令_两步出图
来源:数量经济技术经济研究,论文题目:数据跨境流动能否抑制国际贸易逃税——来自海关信息交换的证据
该文使用双重差分进行实证检验。主要方法如下:
描述性统计分析
基准回归
动态效应分析(平行趋势检验)
安慰剂检验
三重差分
稳健性分析
主要命令为:回归分析
reghdfe 动态效应估计结果
reghdfe
安慰剂检验命令为:
permute 将下述命令里面的reps(10)修改为1000,即可得到原文结果
原文图为:
第6篇、2023年《中国工业经济》最新应用:permute:一行代码实现DID模型安慰剂检验
2023年第2期《中国工业经济》上有一篇论文应用到了permute命令,可以实现DID模型安慰剂检验
原文图为:
代码如下
第7篇、一行代码DID安慰剂检验随机抽样500/1000次_2023年第6期《数量经济技术经济研究》最新应用
来源:数量经济技术研究\2023.06\双循环视角下技术转移对产业升级的影响研究
2023年3月,我们给大家推荐了2023年《中国工业经济》最新应用:permute:一行代码实现DID模型安慰剂检验,详见:
使用这个命令,就可以一行代码进行DID安慰剂检验随机抽样500/1000次,然后再进行绘图。
今天我们给大家推荐第二篇文章,2023年第6期《数量经济技术经济研究》最新应用的文章,也是使用该命令进行相关操作的。
1、简介
采用数据挖掘技术获取2007 ~ 2019年中国283个城市的发明专利和实用新型专利转让详情数据, 从国内、国际两个视角考察技术转移对产业升级的影响。
2、基准模型
为检验技术转移对产业升级的影响,从国际技术转移、国内技术转移两个维度建立如下基准回归模型:
国内技术转移对产业升级的影响
国际技术转移对产业升级的 影响
其中
indupit 为被解释变量产业升级;
zr、zc、fzr、fzc 分别代表解释变量国内技 术转入、国内技术转出、国际技术转入、国际技术转出;
Xit 为控制变量集合;
另外方程中加入时间固定效应、个体固定效应;
εit 为随机干扰项;
𝛽1、𝛽2、𝛽3 为相应系数。
3、回归分析‘
采用时间+地区双固定效应模型对模型(1)和(2)进行基准回归,为比较不同技术转移对产业升级的影响,将 lnzr、lnzc、lnfzr、lnfzc 同时放入模型,然后进行回归。
4、稳健性检验
从替换被解释变量、替换模型、工具变量法三个方面对技术转移影响产业升级的基准回归结果进行稳健性检验。
5、外生冲击检验
将科技成果转移转化示范区政策视作一个准自然实验,探究其对产 业升级的影响。考虑到科技成果转移转化示范区相继于2016 年、2017 年、2018 年分批次获得批复,采用多时点双重差分模型研究国家科技成果转移转化示范区政策对产业升级的影响,构建如下模型:
其中
indupit为被解释变量产业升级; didit 为政策变量,即处理组虚拟变量与政策实施 时间虚拟变量的乘积。其中,处理组虚拟变量设定原则为在样本期内国家科技转移转化示范 区覆盖的城市赋值为 1,未覆盖的赋值为 0;科技成果转移转化示范区政策实施时间虚拟变 量设立的原则是城市在获批之前赋值为 0,之后赋值为 1; Xit 为控制变量集合; 其他参数通基准回归模型
5、平行趋势及动态效应进行检验
在进行回归前,根据事件研究的基本方法对模型的平行趋势及动态效应进行检验,结果表明采用双重差分估计方法是有效的。
6、安慰剂检验
随机抽样重复 500 次,并将这 500 个分布值进行观 测。可以发现,其分布在 0 左右且近似于正态分布,表明其他非观测因素不会产生显著影响 。
. use "平衡面板数据.dta"
. cd C:\Users\Metrics\Desktop
C:\Users\Metrics\Desktop
. cap erase "simulations.dta"
. permute did beta = _b[did] se = _se[did] df = e(df_r), reps(500) seed(123) saving("simulatio
> ns.dta"):reghdfe indup did lnpergdp rdm lnroad peo lnfin fdi mark, absorb(id year) vce(robus
> t)
(running reghdfe on estimation sample)
Permutation replications (500)
----+--- 1 ---+--- 2 ---+--- 3 ---+--- 4 ---+--- 5
.................................................. 50
.................................................. 100
.................................................. 150
.................................................. 200
.................................................. 250
.................................................. 300
.................................................. 350
.................................................. 400
.................................................. 450
.................................................. 500
Monte Carlo permutation results Number of obs = 3,679
command: reghdfe indup did lnpergdp rdm lnroad peo lnfin fdi mark, absorb(id year)
vce(robust)
beta: _b[did]
se: _se[did]
df: e(df_r)
permute var: did
------------------------------------------------------------------------------
T | T(obs) c n p=c/n SE(p) [95% Conf. Interval]
-------------+----------------------------------------------------------------
beta | .0742583 3 500 0.0060 0.0035 .0012391 .0174337
se | .0432564 0 500 0.0000 0.0000 0 .0073506
df | 3376 500 500 1.0000 0.0000 .9926494 1
------------------------------------------------------------------------------
Note: Confidence intervals are with respect to p=c/n.
Note: c = #{|T| >= |T(obs)|}
. use "simulations.dta", clear
(permute did : reghdfe)
. gen t_value = beta / se
. gen p_value = 2 * ttail(df, abs(beta/se))
. ssc install dpplot
. dpplot beta, xtitle("Estimator", size(*0.8)) xlabel(, format(%4.3f) labsize(small)) ytitle("
> Density", size(*0.8)) ylabel(, nogrid format(%4.3f) labsize(small)) note("") caption("") gra
> phregion(fcolor(white))
第8篇、DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次
文章题目:ESG评级能否促进企业绿色转型?——基于多时点双重差分法的验证
模型:多时点DID模型
利用多时点双重差分法,构建模型,为了进一步考察ESG 评级的动态效果并进行平行趋势检验,构建动态双重差分模型
安慰剂检验:为了检验ESG 评级对企业绿色转型的影响不是由其他随机性因素导致的,采用安慰剂检验对ESG 评级效果的偶然性加以识别。随机抽样500 次构建“伪政策虚拟变量”
PSM-DID 法 异质性处理效应检验:进行负权重诊断
安慰剂检验
为了检验ESG评级对企业绿色转型的影响不是由其他随机性因素导致的,本文采用安慰剂检验对ESG评级效果的偶然性加以识别。随机抽样 500 次构建“伪政策虚拟变量”,检验其系数和P值分布,结果如图所示。
图 2 安慰剂检验图---(a)企业绿色创新为被解释变量 操作代码及结果为:
图 2 安慰剂检验图---(b)全要素生产率为被解释变量 操作代码请直接查看官网。
另外2篇该命令最新应用请查看文章:推荐2篇2023年《中国工业经济》及《数量经济技术经济研究》上最新DID安慰剂检验方法——一行代码随机抽样500/1000次
第9篇、DID“学术新星”新方法__2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次
今天给大家推荐一篇期刊论文的do文档,这估计是小编看到的截止目前最清楚明白的do文档了。
该论文方法及检验方法如下:
DID模型 变量的平行趋势假设检验 反事实分析--置换检验--随机抽样500次 联合固定效应模型 处理效应模型 预期效应检验 三重差分模型排除其他干扰性因素的影响 PSM-DID
该论文do文档模板特点
1、 直接将相关描述分析及回归分析结果展现到do文档里面,能够清楚的与论文原文表格对应起来
2、做的相关检验在do文档里面介绍的也很清晰
3、使用最新的permute命令进行安慰剂检验,这是之前公众号重磅推荐的学术新方法
下面跟着小编一起来看看这篇论文do文档精彩片段
1、permute命令进行安慰剂检验方法命令
*- 1. 安慰剂检验
preserve
permute did b = _b[did] t = _b[did]/_se[did], reps(500) seed(12345) ///
saving("$temp_path/simu_po.dta", replace): ///
qui reghdfe polint1 did $ctrlist trend, $regopt
permute did b = _b[did] t = _b[did]/_se[did], reps(500) seed(12345) ///
saving("$temp_path/simu_op.dta", replace): ///
qui reghdfe tfp_op did $ctrlist trend, $regopt
** 被解释变量为polint1
use $temp_path/simu_po.dta, clear
qui sum b, detail
#d ;
dpplot b,
xline(`r(mean)', lpattern(solid) lcolor(red) lwidth(medium))
//xline(-0.477 , lpattern(solid) lcolor(black))
scheme(qleanmono)
msy(smcircle_hollow) mcolor(black)
xtitle("{stSans:系数}" , size(large) margin(zero))
ytitle("{stSans:密}""{stSans:度}", size(large) margin(zero) orientation(h))
saving("$temp_path/Placebo Test of polint1", replace)
xlabel(-0.02(0.01)0.02 0.00 "0", labsize(large) format(%6.2f) tp(i) tlw(medium))
ylabel( , labsize(large) format(%6.0f) tp(i) tlw(medium))
xscale(lwidth(medium)) yscale(lwidth(medium))
line(lcolor(black) lwidth(medium))
caption("") graphregion(margin(medsmall))
;
#d cr
graph export "$temp_path/Placebo Test of polint1.emf", replace
** 被解释变量为tfp_op
use $temp_path/simu_op.dta, clear
qui sum b, detail
#d ;
dpplot b,
xline(`r(mean)', lpattern(solid) lcolor(red) lwidth(medium))
//xline(-0.079 , lpattern(solid) lcolor(black))
scheme(qleanmono)
msy(smcircle_hollow) mcolor(black)
xtitle("{stSans:系数}" , size(large) margin(zero))
ytitle("{stSans:密}""{stSans:度}", size(large) margin(zero) orientation(h))
saving("$temp_path/Placebo Test of tfp_op", replace)
xlabel(-0.02(0.01)0.02 0.00 "0", labsize(large) format(%6.2f) tp(i) tlw(medium))
ylabel( , labsize(large) format(%6.0f) tp(i) tlw(medium))
xscale(lwidth(medium)) yscale(lwidth(medium))
line(lcolor(black) lwidth(medium))
caption("") graphregion(margin(medsmall))
;
#d cr
graph export "$temp_path/Placebo Test of tfp_op.emf", replace
restore
eststo clear
2、回归结果以及展现
if `k2' == 1 {
**# 基准回归
use $path/gqwr.dta, clear
xtset idcode year
gen did = treat * [year >= 2007]
replace did = treat * 0.42 if 2007.year
preserve
** 污染防治成效
eststo m11: qui reghdfe polint1 did, $regopt
eststo m12: qui reghdfe polint1 did $ctrlist trend, $regopt
eststo m13: qui reghdfe polint2 did $ctrlist trend, $regopt
eststo m14: qui reghdfe polint3 did $ctrlist trend, $regopt
** 全要素生产率
eststo m21: qui reghdfe tfp_op did, $regopt
eststo m22: qui reghdfe tfp_op did $ctrlist trend, $regopt
eststo m23: qui reghdfe tfp_lp did $ctrlist trend, $regopt
loc fe idcode "id fe" year "year fe" ///
indcode2 "ind fe" areacode2 "city fe"
estfe m??, labels(`fe')
#d ;
esttab m??, replace nogap nocon b(%9.4f) se(%9.4f) ar2(%9.4f)
indicate("ctrlvars = $ctrlist" "trend = trend" `r(indicate_fe)')
;
#d cr
restore
eststo clear
}
/*
----------------------------------------------------------------------------------------------------------------------------
(1) (2) (3) (4) (5) (6) (7)
polint1 polint1 polint2 polint3 tfp_op tfp_op tfp_lp
----------------------------------------------------------------------------------------------------------------------------
did -0.4751*** -0.4772*** -1.2537*** -0.3361*** -0.0915*** -0.0793*** -0.0547***
(0.0315) (0.0313) (0.1075) (0.0711) (0.0212) (0.0191) (0.0130)
ctrlvars No Yes Yes Yes No Yes Yes
trend No Yes Yes Yes No Yes Yes
id fe Yes Yes Yes Yes Yes Yes Yes
year fe Yes Yes Yes Yes Yes Yes Yes
ind fe Yes Yes Yes Yes Yes Yes Yes
city fe Yes Yes Yes Yes Yes Yes Yes
----------------------------------------------------------------------------------------------------------------------------
N 249504 249504 249504 249504 249504 249504 249504
adj. R-sq 0.6705 0.6729 0.6502 0.7235 0.7089 0.7573 0.8473
----------------------------------------------------------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001
*/
3、平行趋势检验
if `k3' == 1 {
**# 平行趋势检验
use $path/gqwr.dta, clear
graph set window fontface "Times New Roman"
graph set window fontfacesans "宋体"
preserve
gen current = 2007.year * treat * 0.42
forv i = 11 / 13 {
replace year = year - 1 if 20`i'.year
}
gen before6 = [1998.year | 1999.year | 2000.year | 2001.year] * treat
forv i = 5(-1)1 {
gen before`i' = [year == 2007 - `i'] * treat
}
forv i = 1 / 5 {
gen after`i' = [year == 2007 + `i'] * treat
}
drop before1
set l 99
** 被解释变量为polint1
qui reghdfe polint1 before? current after? $ctrlist trend, $regopt
gen a = (_b[before6] + _b[before5] + _b[before4] + _b[before3] + _b[before2]) / 5
qui sum a
#d ;
coefplot, keep(before? current after?)
vert trans(*=@-r(mean))
scheme(qleanmono)
coeflabels(before6 = 98-01 before5 = 2002 before4 = 2003 before3 = 2004 before2 = 2005
current = 2007 after1 = 2008 after2 = 2009 after3 = 2011
after4 = 2012 after5 = 2013)
msymbol(O) msize(medlarge) mcolor(black)
addplot(line @b @at, lcolor(black) lwidth(thick) lpattern(solid))
ciopts(recast(rarea) fcolor(gs0%18) lwidth(none))
yline(0, lpattern(solid) lcolor(red) lwidth(medium))
xline(6, lpattern(solid) lcolor(black) lwidth(medium))
ytitle("{stSans:系}""{stSans:数}", size(large) orientation(h))
xtitle("{stSans:年份}" , size(large))
xlabel( , labsize(large) tp(i) tlw(medium))
ylabel(-0.8(0.2)0.2 0.0 "0", labsize(large) tp(i) tlw(medium) format(%2.1f))
xsize(7) ysize(4)
xscale(lwidth(medium)) yscale(lwidth(medium))
graphregion(margin(medsmall))
saving("$temp_path/Event Study of polint1", replace)
;
#d cr
cap gr export "$temp_path/Event Study of polint1.emf", replace
** 被解释变量为tfp_op
qui reghdfe tfp_op before? current after? $ctrlist trend, $regopt
gen b = (_b[before6] + _b[before5] + _b[before4] + _b[before3] + _b[before2]) / 5
qui sum b
#d ;
coefplot, keep(before? current after?)
vert trans(*=@-r(mean))
scheme(qleanmono)
coeflabels(before6 = 98-01 before5 = 2002 before4 = 2003 before3 = 2004 before2 = 2005
current = 2007 after1 = 2008 after2 = 2009 after3 = 2011
after4 = 2012 after5 = 2013)
msymbol(O) msize(medlarge) mcolor(black)
addplot(line @b @at, lcolor(black) lwidth(thick) lpattern(solid))
ciopts(recast(rarea) fcolor(gs0%18) lwidth(none))
yline(0, lpattern(solid) lcolor(red) lwidth(medium))
xline(6, lpattern(solid) lcolor(black) lwidth(medium))
ytitle("{stSans:系}""{stSans:数}", size(large) orientation(h))
xtitle("{stSans:年份}" , size(large))
xlabel( , labsize(large) tp(i) tlw(medium))
ylabel(-0.3(0.1)0.2 0.0 "0", labsize(large) tp(i) tlw(medium) format(%2.1f))
xsize(7) ysize(4)
xscale(lwidth(medium)) yscale(lwidth(medium))
graphregion(margin(medsmall))
saving("$temp_path/Event Study of tfp_op", replace)
;
#d cr
cap gr export "$temp_path/Event Study of tfp_op.emf", replace
restore
eststo clear
}
4、PSM-DID
*- 4. 利用PSM-DID方法解决由可观测因素带来的基准回归自选择问题
tab treat
preserve
duplicates drop idcode, force
tab treat
restore
drop openyear output va asset fixasset ///
curdepr curasset debt pay vat capital ///
income cost interinput finexp profit itp ///
wastwater cheoxygen sudioxide employee nprofit
forv i = 1998 / 2013 {
preserve
cap {
keep if `i'.year
qui psmatch2 treat $ctrlist, logit n(2) ties com ate cal(0.01)
save $temp_path/`i'.dta, replace
}
restore
}
use $temp_path/1998.dta, clear
forv k = 1999 / 2013 {
cap {
app using $temp_path/`k'.dta
erase $temp_path/`k'.dta
}
}
gen weight = _weight * 2
replace weight = int(weight)
qui reghdfe polint1 did $ctrlist trend if !mi(_weight), $regopt
est sto m11
qui reghdfe tfp_op did $ctrlist trend if !mi(_weight), $regopt
est sto m12
qui reghdfe polint1 did $ctrlist trend [fw = weight], $regopt
est sto m21
qui reghdfe tfp_op did $ctrlist trend [fw = weight], $regopt
est sto m22
esttab m??, nogap nocon b(%9.4f) se(%9.4f) ar2(%9.4f)
erase $temp_path/1998.dta
eststo clear
/*
----------------------------------------------------------------------------
(1) (2) (3) (4)
polint1 tfp_op polint1 tfp_op
----------------------------------------------------------------------------
did -0.4750*** -0.0489* -0.3750*** -0.0637**
(0.0376) (0.0247) (0.0296) (0.0207)
age 0.0022 -0.0022* 0.0020 -0.0045***
(0.0016) (0.0010) (0.0019) (0.0011)
size1 -0.1628*** 0.4333*** -0.2056*** 0.4555***
(0.0170) (0.0118) (0.0198) (0.0135)
size2 0.0093 0.1216*** 0.0395 0.1227***
(0.0187) (0.0130) (0.0227) (0.0147)
capstr -0.0956 -0.5049*** -0.0388 -0.4573***
(0.0492) (0.0315) (0.0573) (0.0329)
leverage -0.0017 -0.2149*** 0.0315 -0.1807***
(0.0407) (0.0272) (0.0453) (0.0299)
roa -0.4813*** 2.0723*** -0.5662*** 2.1563***
(0.0520) (0.0386) (0.0549) (0.0441)
wage 0.0001 0.0048*** 0.0003 0.0043***
(0.0002) (0.0002) (0.0003) (0.0002)
growth -0.1460*** 0.2418*** -0.1965*** 0.2240***
(0.0130) (0.0091) (0.0150) (0.0099)
trend 0.0106 0.0484*** 0.0285* 0.0437***
(0.0116) (0.0079) (0.0142) (0.0093)
----------------------------------------------------------------------------
N 126476 126476 498340 498340
adj. R-sq 0.6215 0.7289 0.7784 0.8442
----------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001
*/
前沿_2023年第7期《数量经济技术经济研究》上合成DID、DIDm+csdid估计量等DID前沿主题文章 (qq.com)
第3篇DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次 (qq.com)
DID安慰剂检验方法大全(14+种)+推荐2023年第7期《数量经济技术经济研究》上DID主题文章 (qq.com)
前沿推荐_2023年第7期《数量经济技术经济研究》上动态合成双重差分文章操作及应用 (qq.com)
第10篇、DID“学术新星”新方法__23年第8期《中国工业经济》上DID安慰剂检验方法_一行代码随机抽样500/1000次
在刚刚出炉的2023年第8期《中国工业经济》上,有一篇论文使用到了小编2023年3月率先推荐的2023年第2期《中国工业经济》上论文,该文使用到了最新DID安慰剂检验方法_一行代码随机抽样500/1000次,这就是perumute命令。
截止目前,这种进行安慰剂检验的新方法,数量经济学已经推荐了5篇论文,而该方法俨然已经迅速成为DID进行安慰剂检验---随机抽样500/1000次的“学术新星”新方法,因为确实方便快捷,容易上手。
前沿_2023年第7期《数量经济技术经济研究》上合成DID、DIDm+csdid估计量等DID前沿主题文章(qq.com)
第3篇DID学术“新星”_2023年第7期《数量经济技术经济研究》上最新DID安慰剂检验方法_一行代码随机抽样500/1000次(qq.com)
DID安慰剂检验方法大全(14+种)+推荐2023年第7期《数量经济技术经济研究》上DID主题文章(qq.com)
前沿推荐_2023年第7期《数量经济技术经济研究》上动态合成双重差分文章操作及应用(qq.com)
今天给大家推荐一篇期刊论文,该论文方法及检验方法如下:
DID模型基准回归 稳健性检验,随机抽样100次 排除同期政策干扰 更换处理变量 工具变量,进行两阶段最小二乘法(2SLS)回归; 分别在行业、地区、行业—地区维度对标准误进行聚类(cluster)调整 进行系数稳定性分析
下面跟着小编一起来看看这篇论文
1、简介
本文主要考察互联网发展对企业库存的影响,使用企业f在第t年的非产成品库存对数值度量企业库存水平。另外,internetrt表示省份r在第t年的互联网发展水平,用互联网上网人数对数值度量;intintensityi表示行业i的互联网使用密集度;二者交互项是核心解释变量,表示互联网发展;
建立如下模型
其中,下标f、r、t、i分别代表企业、省份、年份、行业(4位码)
Xfrti为企业和地区层面控制变量集合 αf为企业固定效应 λi为行业固定效应 γrt为地区—年份固定效应 εfrti为随机扰动项
2、DID模型基准回归
模型第(1)列在控制企业、行业和地区—年份固定效应基础上,加入控制变量企业规模和企业年龄
模型第(2)列进一步加入包含企业利润率、资本密集度
模型第(3)列进一步将国有企业虚拟变量与外资企业虚拟变量纳入回归模型
模型第(4)列进一步加入地区交通基础设施指标和地区实际资本水平
3、稳健性检验
3、方法1:随机抽样100次
随机置换核心解释变量 𝑖𝑛𝑡𝑒𝑟𝑛𝑒𝑡𝑟𝑡 × 𝑖𝑛𝑡𝑖𝑛𝑡𝑒𝑛𝑠𝑖𝑡𝑦𝑖中的地区和行业,随机抽样100次,并将 100 次回归的系数统计出来,绘制相应被解释变量下的系数核密度图。
该文使用到了我们推荐的permute命令,命令为
结果为:
下面我们具体学习下该命令
1、命令permute
语法格式:
Compute permutation test
permute permvar exp_list [, options] : command
Report saved results
permute [varlist] [using filename] [, display_options]
选项含义为:
permute在蒙特卡罗模拟的基础上估计置换试验的p值。
输入
permute permvar exp_list, reps(#): command
随机排列permvar #times中的值,每次执行命令并从中的表达式中收集exp_list的相关值
permvar标识其观测值将被随机排列的变量。
这些p值估计值可以是单侧的:Pr(T* < T)或Pr(T* > T)。默认情况下是双侧的:Pr(|T*| > |T|)。这里T*表示随机排列数据集的统计值,T表示在原始数据上计算的统计值。
command定义了要执行的统计命令。大多数Stata命令和用户编写的程序都可以与permute一起使用,因为它们遵循标准的Stata语法。by前缀可能不是命令的一部分。
exp_list指定从执行命令开始收集的统计信息。