题目:Analytical ab initio hessian from a deep learning potential for transition state optimization
文献出处:Nature Communications | (2024) 15:8865
通讯作者及单位:Teresa Head-Gordon 1,2,8 &Samuel M. Blau, e-mail: thg@berkeley.edu; smblau@lbl.gov
摘要
本文介绍了通过训练一个完全可微的等变神经网络势能面模型(NewtonNet),并从中推导出分析Hessian矩阵的方法来寻找有机反应的过渡态。通过大量减少计算成本,使得在每一步优化过程中使用学习到的Hessian成为可能。这种方法证明了其在定位240个未知有机反应过渡态方面的鲁棒性,并且相比于准牛顿DFT和机器学习方法减少了2至3倍的优化步数。整个数据生成、NewtonNet模型以及过渡态搜索方法均集成在一个自动化的流程中。
理论与计算方法
Q-Chem 6.0.052,using the ωB97X functional;Sella优化器(优化过渡态)
结果讨论与文献解析
图1 | NewtonNet模型及其在ANI-1和T1x数据集上的表现
图1a 等变消息传递神经网络设计用于3D分子图,其中节点为{Zi},边为{Rij},以预测分子能量E和原子力Fi。在本工作中,对网络进行了微分以推导出Hessian矩阵(Hij)用于过渡态(TS)优化任务。
图1b 展示了我们在训练中使用的数据集中,原子对间距离R相对于平衡键长R0的分布。其中,T1x数据集在过渡态区域提供了更多的数据,并通过ANI-1x数据集进一步增强了与键压缩相关的数据。
图1c 显示了预训练模型和微调模型对于一个未见过的反应沿反应坐标方向预测的势能。这一部分的结果表明,无论是预训练还是微调模型,都能够有效地预测未知反应的势能。
图1d 展示了预训练模型和微调模型对于一个未见过的反应沿反应坐标方向预测的原子力。这部分结果有助于理解模型在预测原子力方面的能力。
图2 | 预训练和微调的NewtonNet模型在测试集上的Hessian预测性能
图2a 展示了预训练模型在反应物(R)和产物(P)的最小几何构型上能够准确预测Hessian矩阵,但在过渡态(TS)处则表现不佳,预测失败明显。图2b 描述了使用T1x数据集进行微调后的模型在过渡态(TS)上的预测准确性显著提升,但仍存在Hessian特征值低估的问题。
图2c 通过将T1x数据集与包含键压缩配置的数据增强相结合,创建了更加均衡的训练数据集,从而显著改进了整体预测性能。
图3 | 使用全Hessian过渡态优化相比于准牛顿法的效率改进
图3a 展示了使用全Hessian过渡态(TS)优化相比于准牛顿(QN)近似Hessian方法,在达到收敛所需的步数上减少了50%。这里使用了相同的NewtonNet势能在相同的反应上进行了比较。
图3b 解释了全Hessian TS优化的效率改进来自于两方面:更自信的步长(顶部)和更直接的路径(底部)以实现收敛。在效率比较中,初始Hessian构建或QN重启时的Hessian重构所需的梯度调用已被排除在外,无论使用DFT还是NewtonNet进行梯度计算。图中的线条对应于对直方图数据进行核密度估计拟合的结果。
图4 | 使用NewtonNet优化的过渡态(TS)质量
图4a 展示了NewtonNet在预测反应时的成功率高于DFT,无论是否使用全Hessian矩阵。此外,使用全Hessian矩阵还可以找到约10%更多的涉及化学反应而非构象变化的过渡态。
图4b 指出,在初始TS猜测质量下降时,全Hessian矩阵相对于准牛顿(QN)方法的优势变得明显。准牛顿方法的收敛性随着猜测结构中噪声的增加而下降,而全Hessian矩阵的收敛性对扰动更为稳健。
图4c 比较了在机器学习(ML)势能面上找到的最低频率是否也在密度泛函理论(DFT)势能面上表现为负频率,使用ML几何结构进行比较。
图4d 展示了在DFT表面上重新优化ML过渡态结构的表现优于从最初的KinBot初始猜测开始。特别是在2-end匹配和识别化学反应方面,使用ML过渡态结构进行优化表现出更高的性能。
总结
本文提出了一种基于深度学习的过渡态搜索方法,利用NewtonNet模型快速准确地计算分析Hessian矩阵,大大降低了过渡态优化的成本。该方法不仅提高了优化效率,而且在处理具有挑战性的任务时表现出色。此外,整个工作流和分析脚本均公开,便于潜在的读者和合作者使用。