2024年12月21日至22日,首届ADEFT-XueShuo冬季学术研讨会“社科人工智能与人工智能经济学”在线上成功举办。
此次会议由清华大学孵化的学说平台主办,康奈尔大学商学院金融科技中心和斯坦福金融科技高阶实验室等全球多个研究机构和研究中心提供学术支持。
研讨会联席组委由康奈尔大学约翰逊商学院Rudd家族管理学讲席教授、金融学教授及《Management Science》金融主编叢林(丛林),与斯坦福大学管理科学与工程系终身教授Markus Pelger组成。
来自耶鲁大学管理学院的Bryan Kelly教授进行了关于“复杂性的美德(The Virtual of Complexity)”的精彩分享。
复杂性的美德
(The Virtual of Complexity)
在开幕演讲中,Bryan Kelly教授主要探讨了机器学习模型中复杂性的优势。传统的统计学观点遵循"简约原则"(Principle of Parsimony),认为应该使用最少的参数来进行建模。然而,这一原则与现代机器学习算法采用的大规模参数化方法形成鲜明对比。例如,GPT-3语言模型使用1750亿个参数,而用于收益预测的神经网络也使用超过30,000个参数。
那么,在给定T个数据点的情况下,应该选择多少特征(P)来构建模型?简单模型(P<<T)由于参数较少而方差较小,但可能无法很好地近似真实关系,但复杂模型(P>T)虽然可以更好地进行近似,但可能表现不稳定。有趣的是,研究发现当模型复杂度增加时(即P/T比率提高),模型的预测能力反而会提升。
研究团队采用了一年期滚动训练窗口(T=12)和大量随机傅里叶特征(RFF)进行实证分析。结果表明,即使在样本量很小的情况下,复杂模型仍然表现出色。具体而言,机器学习模型学会了在经济衰退前降低市场敞口,且在样本外测试中实现了显著优于买入持有策略的夏普比率。
这些发现对传统的"简约原则"提出了挑战。Kelly教授认为,当模型天然存在错误设定时,增加模型复杂度反而可能带来更好的表现。这一发现不仅适用于市场收益预测,还推广到了其他资产类别,包括国际股票、债券、商品和货币等领域。
最后,Kelly教授强调这些发现并非意味着可以随意添加预测变量。相反,应该纳入所有合理相关的预测变量,并使用非线性模型而非简单的线性规范。特别是在配合收缩方法使用时,即使在训练数据稀缺的情况下,这种方法也能带来预测和投资组合收益。这些发现为金融领域的机器学习应用提供了重要的理论支持。
疯狂暗示↓↓↓↓↓↓↓↓↓↓↓