胡培君最新综述,神经网络势+动态催化

学术   2024-10-27 15:50   天津  

文章标题:Leveraging Machine Learning Potentials for In-Situ Searching of Active sites in Heterogeneous Catalysis

文章出处:

https://doi.org/10.1021/prechem.4c00051

通讯作者及单位:

  • Wenbo Xie - School of Physical Science and Technology, ShanghaiTech University, Shanghai 201210, China;

  • P. Hu - School of Physical Science and Technology, ShanghaiTech University, Shanghai 201210, China;  School of Chemistry and Chemical Engineering, The Queen’s University of Belfast, Belfast BT9 5AG, U.K.;  

摘要

这篇观点文章探讨了机器学习势能(MLPs)多相催化中的研究,重点关注其在识别原位活性位点以及增强对催化过程理解方面的作用。MLPs 利用来自高通量密度泛函理论(DFT)计算的广泛数据库来训练模型,这些模型能够以接近 DFT 的精度预测原子构型、能量和力。这些能力使 MLPs 能够处理更大的系统,并将模拟时间延长到传统从头算方法的限制之外。与全局优化算法相结合,MLPs 能够在广阔的结构空间中进行系统研究,为反应条件下催化剂表面结构的建模做出重大贡献。该综述旨在对 MLPs 的最新进展提供广泛介绍和实际使用指导,并展示了几个与反应条件下表面结构变化以及多相催化中活性位点性质相关的 MLP 驱动发现的示例案例。还讨论了这种方法面临的主要挑战。

多相催化与机器学习势概述

多相催化的重要性与挑战

  多相催化在现代化学工业中至关重要,是生产燃料、塑料、药品等多种化学品的关键促进因素。然而,活性位点具有非凡的复杂性,传统理论方法如量子力学(QM)方法中的密度泛函理论(DFT)虽常用,但受计算需求限制,特别是对于大型系统或长时间模拟。同时,理论表面科学研究在时间、温度、压力和结构复杂性方面的简化,无法完全捕捉催化过程和活性位点的真实情况。

机器学习势的发展

  机器学习势的出现得益于材料结构数据库的发展、机器学习模型的创新以及迭代学习算法。其通过算法学习原子构型与势能的关系,基于 QM 计算构建,能够高效准确地预测新构型的能量和力。不同类型的 MLPs 训练模型已被开发,如 Behler - Parinello Neural Networks(BPNN)深度学习势(包括卷积神经网络、图神经网络、循环神经网络等架构)高斯近似势(GAP)光谱邻域分析势(SNAP)多体张量表示(MBTR)等。

  通过使用 MLPs,可以进行全局优化,大大提高计算效率,与 DFT 计算相比可加速 4 个数量级。这种效率使我们能够在数千种组成上执行大规模全局优化算法,如随机表面行走(SSW)、遗传算法(GA)、和巨正则蒙特卡罗(GCMC),跟踪主要低能表面的结构演变,结构搜索过程流程图如图 1 所示。所得的表面结构与 DFT 计算、AIMD 和微观动力学建模相结合,能够评估催化性能并定位原位活性位点,如图 1 中的催化性能模块所示。

图 1. 机器学习势的构建及其在催化研究中的应用示意图

机器学习势的具体类型

Behler - Parinello 框架的 MLPs(BPNN)

结构与原理:

2007 年由 Jorg Behler 和 Michele Parrinello 引入,采用前馈神经网络架构拟合二维势能面(PES),利用对称函数将原始原子位置转换为对相同原子的旋转、平移和置换不变的描述符。对于高维 PES,应用径向对称和角对称函数构建系统总能量。

BPNN 神经网络的结构如图 2a 所示。该网络包含一个输入层以概括系统坐标一个输出层以产生相关能量原子能量取决于截断半径内的局部化学环境在输入层和输出层之间,有一个或多个隐藏层;被标记为 Si 的简单神经网络被用作子网络。

图 2. (a) 标准高维神经网络势(HDNNPs)的示意图。(b) 使用来自 BPN、其他神经网络(NN)势能和密度泛函理论(DFT)的立方 64 原子晶胞获得的 3000K 硅熔体的径向分布函数(RDF)(左)。在体硅的元动力学模拟的每一步中,BPNN 预测的能量与从密度泛函理论(DFT)重新计算得到的初始和最终结构的能量之间的差异(右)。(c)SingleNet 的示意图。(d)Behler-Parinello 型神经网络的 LASP 实现方案。

深度学习势(Deep Learning Potentials)

Deep Potential 模型:

由 Wang 等人开发的 Deep Potential Molecular Dynamics(DeePMD)方法中的 Deep Potential 模型是深度学习势的代表。它利用深度神经网络直接从从头算数据学习原子的势能和力深度学习架构使该模型能够捕捉数据中复杂的高维关系,使其成为分子动力学模拟的强大工具。DeePMD 克服了与对称函数或库仑矩阵等辅助量相关的限制。DeePMD 通过使用神经网络自身学习到的更灵活和通用的表示来描述原子的局部环境。DeePMD 中的描述符是在训练过程中从原子的原始坐标自动提取的学习特征,通过嵌入网络映射到高维特征空间,确保模型对平移、旋转和置换的不变性,具有良好的通用性和可扩展性。


图 3.(a)以水为例,原子i环境的神经网络输入示意图。(b)深度势能分子动力学(DeePMD)模型示意图。方框中的框架是深度神经网络(DNN)的放大图。

嵌入式原子神经网络势

模型结构

嵌入式原子神经网络(EANN)由 Zhang 等人提出,利用对称不变的嵌入式密度描述符和深度神经网络回归器。在经验嵌入式原子方法(EAM)框架下,总能量可表示为嵌入能和静电相互作用之和。该模型的原子表示通过计算邻居原子的线性组合的平方得到,仅需少量超参数,且密度描述符仅依赖笛卡尔坐标,提高了编程效率。

在嵌入原子方法(EAM)框架中,嵌入能可以近似为标量局部电子密度和静电相互作用的函数。因此,一个 N 系统的总能量可以表示为

其中 Fi 是嵌入函数,Øij 表示原子之间的静电相互作用这种密度类描述符仅依赖于笛卡尔坐标,消除了对二体和三体项进行分类的需要,这使得编程更加高效。EANN的架构在图4a中有说明。

图 4. (a)以水为例,原子i环境的 EANN 神经网络输入的示意图。(b)REANN 模型的示意图。框中的框架是深度神经网络的放大图。

MLPs 训练中的主动学习

主动学习的原理与应用

主动学习是监督学习领域的一种机器学习策略,旨在自动采样、选择和标记新数据,以高效生成多样化且相关的数据集来训练更强大的 ML 模型。在材料科学和分子模拟中,MLPs 因数据分布有限在外推时表现不佳,主动学习通过在结构搜索过程中迭代更新 MLP,将外推构型纳入训练集,可加速结构搜索并构建更准确和可转移的 MLP

Xu开发了一个名为 “Generating Deep Potential with Python(GDPy)” 

Jinnouchi 等人总结了使用主动学习方案为大规模原子模拟即时生成原子间势的方法。

DeepMD 也有一个内置的主动学习框架,称为深度势生成器(DP-GEN)

催化剂结构预测的算法与方法

随机表面行走法(SSW)

LASP(具有神经网络势能的大规模原子模拟软件包)的出现是由机器学习与计算化学之间日益增加的重叠所驱动的。LASP 软件项目由 Liu 等人在 2018 年初发起,旨在通过合并两个主要的模拟工具开发一个单一的软件包以提高可用性:基于全局势能面探索的随机表面行走(SSW)方法使用他们团队开发的全局神经网络(G-NN)势能进行快速势能面评估。

方法原理:

SSW 方法是一种探索材料复杂势能面(PES)的方法,基于偏置势驱动动力学和 Metropolis Monte Carlo 算法,用于自动预测未知材料结构。它通过小步长结构位移探索 PES 上的极小值和鞍点,通过偏置势克服极小值之间的障碍。

与神经网络势的结合:

SSW 与全局神经网络(G - NN)势结合,如 LASP 软件项目中的 SSW - NN 方法。G - NN 势通过学习 SSW 全局优化生成的全局 PES 的第一性原理数据集进行训练,经过多次迭代可获得具有可接受精度的转移势。这种结合解决了从结构确定到反应途径预测等许多问题。

图 6. (a) SSW-NN 的方案。(b)全局 NN 势能的自学习过程。(c)LASP 代码的架构和模块化图。

遗传算法(GA)

算法原理:

遗传算法是一种受生物进化启发的全局优化算法,用于探索高维能量面上的能量极小值,以找到给定化学组成和外部条件下具有最低全局能量的潜在晶体结构。其基本步骤包括初始化种群、评估晶体结构能量、选择适应度高的结构作为父母、通过交叉和突变生成新结构,迭代直至收敛

应用案例:

通用结构预测器:进化晶体学(USPEX)是一种广泛应用的基于遗传算法的方法,可在任意压力 - 温度条件下预测晶体结构,还能识别稳定和亚稳结构,对催化系统的研究很有帮助。

图 7. 二维势能面上遗传算法晶体结构预测方法的示意图。

基于巨正则系综的方法

巨正则遗传算法(GCGA)

算法原理:GCGA 是传统遗传算法的扩展,用于处理变组成问题。它通过巨正则系综实现,可在优化过程中动态添加或移除粒子,以探索更广泛的晶体结构组成。其包括与传统 GA 相似的部分以及针对当前方法的修改操作,如添加和移除吸附质。

结构搜索与活性位点确定

通过 MLPs 加速结构搜索并确定原位活性位点的方法已得到广泛应用。例如,Han 等人利用 EANN MLPs 结合主动学习程序加速基于 GA 的全局优化,研究了 ZnO 表面不同氧空位浓度下的最稳定表面构型,发现了氧空位对催化活性的影响。

Xu 等人利用 EANN MLP 进行 GCMC 模拟,研究了 PtOx 表面在催化过程中的氧化情况,揭示了表面氧化物的形成机制。

图 9.(a)利用基于大规模机器学习势的 GCMC 研究 Pt 催化剂表面结构。(b)基于网格上(左)和网格外(右)策略,随着 CCr 和 COV 的增加,Ea 在结构上的变化。(c)在具有 Cr4.2%OV0.33 和 Cr4.2%OV0.67 的 ZnO 表面上 C-O 键解离的优化过渡态。

还有利用 SSW - NN 方法研究 ZnCrO 催化剂的结构和活性位点,以及 FeCx 催化剂的表面重构和 Fischer - Tropsch 合成机制等。

图 10.(a)Zn–Cr–O 的三元相图。红色虚线三角形中的尖晶石 ZnCrO 相在热力学上是允许存在的。(b)图(a)中红色虚线区域内 ZnCrO 相的形成能。(c)在 673 和 1073K 下进行 2ns 分子动力学模拟后的结构。(d)对于初始氧空位浓度为 0.25 ML 的 O 缺陷 Zn3Cr3O8(0001)表面,不同温度下能量随分子动力学模拟时间的变化。(e)表面 Cr 浓度的变化。

理论计算科学
致力于理论计算化学与材料科研学术内容知识的分享。
 最新文章