美国核医学与分子影像学会(SNMMI)的年度会议是全球核医学与分子影像学领域规模最大、最具影响力的学术年会之一,旨在促进该领域的科学探索、技术创新和实践应用。在2024年SNMMI的投稿中,联影PET/MR科学家与用户合作,多篇科研成果被接收,涵盖了肿瘤科学和人工智能(AI)等研究领域。尤其是在AI飞速发展的当下,联影用户积极探索其在一体化PET/MR成像中的创新应用,在低剂量PET图像增强、图像重建、模态补全、多模态图像转换以及图像分割等关键技术领域取得了显著成果。在本次专题报道中,我们将详细介绍北京协和医院、中国科学院深圳先进技术研究院及河南省人民医院利用联影PET/MR设备在2024年SNMMI中稿的相关科研成果。
18F-FET PET/MR评估高级别胶质瘤MGMT启动子甲基化状态
一体化PET/MR成像,以其双模态成像和多参数信息融合的显著优势,能够实现对肿瘤的全面评估。这不仅能增强对肿瘤生物学特性的理解,而且为个体化和精准化的肿瘤诊疗提供了不可或缺的影像学依据,推动精准医疗向更深层次的发展。北京协和医院霍力教授团队探究了通过18F-FET PET/MR评估高级别胶质瘤患者MGMT启动子甲基化状态的应用潜力[1],为胶质瘤的早期诊断和患者管理提供参考。
O6-甲基鸟嘌呤-DNA甲基转移酶(MGMT)启动子甲基化是胶质瘤的一个重要分子特征,与患者的治疗反应和预后密切相关。然而,由于各种因素限制,如肿瘤标本难以获取、检测成本高昂以及瘤内异质性等,通过分子技术准确测定MGMT甲基化状态仍具有挑战性。基于此背景,该研究评估了通过18F-FET PET/MR成像在术前无创鉴别MGMT甲基化状态的可行性。研究共纳入8例胶质瘤患者,根据MGMT的状态分为未甲基化组(MGMT-, N = 4)和甲基化组(MGMT+, N = 4)。图1展示了各例患者对应的18F-FET PET、水分子扩散不均匀指数(α)以及分布扩散系数(DDC)图像。定量统计结果表明,MGMT+组的SUVmean(P = 0.031)和α值(P = 0.008)均高于MGMT-组(图2)。其中,α值可以完全区分两组,MGMT+组的最小值(α = 0.237)大于MGMT-组的最大值(α = 0.229)。
图1. 8例入组患者的(a)弥散磁共振成像(b = 0)与PET图像的融合图;(b)18F-FET PET图像;(c)α图像及(d)DDC图像。
图2. MGMH+组和MGMH-组的(a)SUVmean和(b)αmean的组间比较结果。
该研究揭示了18F-FET PET/MR成像在胶质瘤患者中无创鉴别MGMT启动子甲基化状态的潜在应用价值。一体化PET/MR成像可在一次成像过程中同步获取PET和MR影像数据,两种模态的互补能够为临床医生提供更为全面和深入的病变特征,有望为胶质瘤患者的个性化治疗策略制定和优化提供重要参考,从而推动精准医疗的发展。
低剂量PET成像通过减少放射性示踪剂的使用,可以有效降低患者及医护人员的辐射风险,对于儿童和青少年等对辐射敏感的人群意义重大。然而,如何解决由于放射性示踪剂注射剂量减少而导致的图像质量降低的问题仍面临挑战。在该领域,AI以其创新实力引领了一场技术革新。中国科学院深圳先进技术研究院胡战利教授团队联合河南省人民医院王梅云教授团队展示了AI在提升低剂量PET图像质量和重建精准度方面的应用潜力[2,3],为低剂量PET成像的临床应用提供了新视角和切实可行的解决方案。
为了在不牺牲PET图像质量的前提下减轻患者的辐射暴露风险,研究者提出了一种带有空间脑变换(SBF)模块的自适应三维神经网络,在低剂量PET和MR图像中引入了脑空间解剖对齐信息,以提升全脑低剂量PET成像的图像质量[2]。具体工作流程如图3所示。为评估模型性能,该工作选择了CNN、REDCNN、REDCNN3D、UNet和UNet3D几种深度学习方法进行对比,并采用峰值信噪比(PSNR)、结构相似指数(SSIM)和Pearson相关系数(PCC)对生成的PET图像质量进行定量评价,结果如图4所示。该研究所提出方法的PSNR和SSIM分别为41.96 ± 4.91 dB和0.9654 ± 0.0215,相较于原始低剂量PET图像(LPET)分别提高了19%和20%(P < 0.01)。对左侧丘脑(PCC = 0.959)等脑区的感兴趣体积(VOI)分析表明,该方法可以在保留脑结构细节的同时获得更准确的标准化摄取值(SUV)分布。
图3. 研究所提出方法的概述框架。(A)从T1WI图像中提取脑空间解剖排列信息的过程;(B)PET降噪过程;(C)三维神经网络的细节展示;(D)空间脑变换(SBF)模块的细节展示。
图4. (a)根据不同方法选取的脑部ROI及相应的定量结果。最好的结果用黄色突出显示;(b)不同方法对应的PSNR、SSIM和PCC定量结果(Mean ± Std)。最好的结果用粗体表示。
在另一项工作中,研究者针对低计数PET图像重建会由于数据的稀疏性导致重建过程容易受到噪声干扰的问题,提出了一种保真度控制的生成神经网络模型[3]。该方法通过引入调节机制有效降低了生成模型固有的随机性,确保了在不牺牲图像细节的前提下生成高质量且可靠的PET图像。该模型将生成网络(VQ-VAE)与基于交替方向乘子法(ADMM)的迭代优化算法的优势相结合来重建PET图像,具体的方法框架如图5(a)所示。其中,VQ-VAE作为基础生成模型的优势在于其具备出色的鲁棒性和数据效率,即使没有大量的数据集,也可以进行有效的训练;而ADMM的加入则起到了保真度的作用,确保了重建图像与原始信号数据的完整性和可靠性密切相关。图5(b)展示了采用不同方法得到的重建图像。从图像中可以看出,与其他方法相比,基于该研究所提出的方法重建出的图像具有更高的细节分辨力和更低的噪声,具有明显的低剂量成像优势。此外,定量评估结果表明该方法在各项评价指标的比较中都取得了最好的表现(表1)。
图5. (a)研究所提出的保真度控制的生成神经网络;(b)采用不同方法对模拟数据集和实际患者的大脑数据中的切片样本进行重建。
表1. 不同方法对应的各项评价指标在真实患者测试数据集上的平均值。
这些研究表明,AI在提高低剂量PET成像的临床应用准确性和效率方面具有重要意义,有望推动低剂量PET成像技术的临床转化。随着AI技术的持续进步和深入优化,医学影像的精准度将大幅提升,疾病的诊断流程变得更加高效,同时患者所承受的辐射风险会显著降低。这将为患者带来更加安全和高效的诊断体验,推动整个医疗健康行业的发展。
通过整合不同成像技术(PET、MR、CT等)的优势,多模态图像的融合可以对病变进行更全面的分析,进而为临床决策提供更为深入和精确的依据,有助于对患者进行全面的临床诊断评估。然而,由于技术和资源的限制,从单一患者身上获取完整的多模态医学图像在实际操作中面临诸多挑战。为解决这一问题,中国科学院深圳先进技术研究院胡战利教授团队开发了一种基于全身PET成像的多模态图像转换网络[4],并同北京协和医院合作,深入探讨了运用多任务生成模型对PET数据进行模态补全的潜力[5]。这些由AI驱动的创新技术显著提高了医学影像数据的完整性和质量,有利于增强临床诊断的全面性和准确性。
为实现多模态医学成像技术优势的充分融合进而提升诊断的精确度,研究者提出了一种可基于全身PET成像执行一对多图像转换任务的卷积神经网络[4]。该网络能够实现从全身PET图像到多种模态图像的高效转换,包括合成的衰减校正(AC)PET图像以及合成的CT和MR图像,从而显著增强了影像数据的全面性和准确性。网络的训练机制和原理具体如图6所示。结果表明,该研究所提出的方法具有定性误差小、图像质量好、图像相似度高等特点(图7)。在腿部和足部PET衰减校正的背景下,该方法取得了良好的结果,偏差为0.32 ± 0.11×10-3, PSNR为62.76 ± 2.03 dB,SSIM为99.69 ± 0.17%。在CT合成中,腿部和足部指标同样显著,偏差为8.04 ± 1.97×10-3,PSNR为34.35 ± 2.14 dB,SSIM为94.22 ± 1.49%。同样,对于大腿区域的MRI合成任务,该方法的偏差为6.26 ± 1.18×10-3, PSNR为36.68 ± 1.37 dB, SSIM为94.22 ± 1.56%。这些指标说明了该方法在医学成像应用中的鲁棒性和有效性。
图6. 网络训练原理图。(a)深度学习网络架构概述;(b)关于交换层的解释;(c)训练、验证和测试数据集的直方图;(d)训练和验证数据集的损失曲线。
图7. 无参考图像的多模态图像合成结果和两名放射科医师主观评价结果。一名患者的(a)全身MIP图像、(b)冠状位、(c)矢状位及(d)轴状位图像;两位放射科医生在(e1)CT合成和(e2)MRI合成任务中的主观评分。
在影像数据模态补全领域中,尽管一些生成模型目前已经可以进行模态转换,但大多集中在双模态转换上,性能不稳定。基于此背景,研究者在另一项工作中提出了一种基于潜在扩散模型的多任务生成模型(MTGM),用于从一个源模态完成同一个体的多个目标模态的补全[5]。模型的具体介绍如图8所示。为了验证所提出模型的有效性,研究共纳入6785张PET/CT图像和14090张PET/MR图像。结果表明,该模型可以同时从PET数据中获得质量优异的CT和MR图像(图9)。此外,在与其他几种常用的基于生成对抗网络(GAN)的方法和扩散模型的对比分析中,该模型在各种指标(PSNR为~4 dB,SSIM为~0.5,RMSE为~ 0.04)的表现均优于其他模型。
图8. 关于MTGM的介绍。其中,C表示任务类别,z表示潜在表示。SiLU:Sigmoid形线性单元;GELU:高斯误差线性单元。
图9. 通过不同模型生成的图像中选取的矩形ROI对比。在右侧的生成结果中,不同方法之间存在显著差异的区域用红色圆圈突出显示。
这些研究揭示了由AI驱动的多模态图像转换及模态补全技术在临床研究中的巨大潜力和价值。这些技术可以助力疾病的早期发现、诊断和治疗规划,最终提高患者护理的质量和效率。同时,这些技术还有助于降低医疗成本,减少患者接受辐射或侵入性检查的需要,对于推动个性化医疗和精准医疗具有重要意义。
在神经科学领域,对大脑不同区域的精确分割通常是检测和诊断各种神经系统疾病的先决条件。在当前脑部图像分割的研究中,大多数仅基于MRI一种模态,忽略了多模态信息融合的重要性;而且,PET图像的分割精度通常受到图像分辨率的限制。近期,中国科学院深圳先进技术研究院胡战利教授团队联合河南省人民医院王梅云教授团队探究了深度学习技术在全脑PET/MR图像分割的应用潜力[6-8],充分展现了AI在该领域的科研价值。
为应对PET图像分割精度受限于图像分辨率的挑战,研究者提出了一种三维双阶段全脑分割网络,利用深度学习技术引入合成磁共振(synthetic MR, sMR)图像作为全脑分割的先验信息,从而显著提高PET图像的分割精度和速度(图10)[6]。在第一阶段,利用变分自编码器(VAE)网络以PET图像为输入合成sMR图像;在第二阶段,研究者开发了一个全脑分割网络,以sMR和PET图像作为联合输入,采用交叉注意力机制实现双模态信息的特征融合和共享,从而实现全脑的精确分割。为了评价模型性能,该工作选择了Unet、Unet++、VNET等深度学习方法进行对比分析,并采用Dice相似系数(DSC)和Jaccard指数(JAC)作为定量评估指标。定量和可视化的结果都证明,该工作所提出的方法(Proposed)在全脑分割任务中明显优于其他深度学习方法,显著提高了分割精度(图11)。
图11. 不同脑结构的分割结果与对应的DSC和JAC值。
在脑部图像分割中,多模态信息融合可以极大丰富网络训练时的特征,提升大脑分割的速度和准确性。鉴于此,研究者在另一项工作中提出了一种基于深度学习的PET/MR双模态分割方法,通过整合功能和解剖信息来实现对整个大脑的自动精准分割[7]。分割模型由三个主要部分组成:特征提取器、交叉注意力模块和特征解码器(图12)。其中,特征提取器对PET/MR图像进行关键特征提取;交叉注意力模块实现PET和MRI双模态关键特征的融合;特征解码器输出全脑分割结果。结果表明,与Unet、Unet++及Vnet深度学习方法相比,该研究所提出的方法在全脑分割中具有显著优势,DSC值为85.34%, JAC值为77.22%,召回率(Recall)为88.87%,精度(Precision)为84.81%(图13)。
图13. (a)各分割方法在冠状位、矢状位和轴状位图像中的分割结果;(b)各分割方法所对应的DSC、JAC、Precision和Recall值。最好的结果以粗体显示。
为实现全脑PET/MR的精准分割,研究者在另外一项工作中提出了一种基于交叉融合机制的三维全脑分割网络(图14)[8]。PET和MR图像以patch的形式同时输入到网络中,编码部分的UX-Net模块和交叉融合模块进行特征提取和融合。在视觉评估中,该研究所提出的方法不仅实现了对各脑区的完整分割,并且保留了其中的细节。在定量评价中,该模型相较于其他方法(包括3DUXNET、SwinUNETR、UNETR、nnFormer、UNet3D、NestedUNet、ResUNet和Vnet)取得了最优异的性能,DSC为0.8522,JAC为0.7446,灵敏度(Sensitivity)为0.85,Precision为0.8326,Hausdorff距离(HD)为4.5929(图15)。这些结果均表明,该模型具有较好的分割性能,可以实现自动准确的全脑分割。
图14. (a)基于U形的双模态脑分割网络;(b)用于特征提取的UX-Net模块;(c)用于融合各层特征的交叉融合模块。
图15. (a)各分割方法在轴状位、冠状位和矢状位图像中的分割结果;(b)各分割方法所对应的Dice、Jaccard、Precision、Sensitivity及HD值。
这些研究彰显了AI在医学影像分割领域的广泛应用前景。依托其强大的数据处理能力和先进的深度学习算法,AI技术的应用可以显著提高医学影像分割的准确性和效率。这不仅为临床提供了更为精确的诊断工具,也为研究人员探索脑部疾病的深层机制开辟了新途径。
这些创新成果表明,一体化PET/MR成像不仅可以为肿瘤等临床研究提供全面而精确的诊断信息,更为AI在医学影像领域中的应用提供了广阔的科研空间。展望未来,我们期待与更多用户携手探索一体化PET/MR成像在前沿临床研究中的应用价值,并持续深化AI在一体化PET/MR成像中的创新应用,共同推动一体化PET/MR向智能化、精准化、深入化的方向发展,为患者带来更加安全、高效且优质的医疗服务体验。
[1] Qingqing Han, Zengping Lin, Enhui Li, Yang
Yang, Li Huo. Evaluating the MGMT promoter methylation status in gliomas using
simultaneous 18F-FET PET and multi-b value diffusion MR imaging. SNMMI, 2024,
241897.
[2] Zhenxing Huang#,
Wenbo Li#, Yaping
Wu#, Lin
Yang, Ziwei Liu, Yun Dong, Yongfeng Yang, Hairong Zheng, Dong Liang, Meiyun
Wang*, Zhanli Hu*. Low
count PET/MR imaging with spatial transformation. SNMMI 2024, 241406.[3] Xingyu Xie, Zhenxing Huang, Qiyang Zhang,
Wenjie Zhao, Yaping Wu, Meiyun Wang, Jianmin Yuan, Yang Yang, Yan Zhang, Dong
Liang, Hairong Zheng, and Zhanli Hu*. Fidelity-controlled generative neural networks for low-count PET reconstruction. SNMMI 2024, 241654.[4] Yuxi Jin#, Zhihua Li#, Qingneng Li#, Zhenxing Huang, Zixiang Chen, Na Zhang, Dong Liang, Hairong
Zheng, Zhanli Hu*. Multimodal image translation network leveraging total-body PET data. SNMMI 2024, 241313.
[5] Tianrun Han, Haiyan Wang, Zhenxing Huang, Chengda
Li, Ruixue Cui, Qijun Li, Chenhao Jia, Yan Zhang, Yang Yang, Yongfeng Yang, Hairong
Zheng, Dong Liang, Zhanli Hu. Modality completion based on PET data using a multitask generative model. SNMMI 2024, 241148.
[6] Wenbo Li#,
Zhenxing Huang#,
Yunlong Gao, Lulu Zhang, Yaping Wu, Jianmin Yuan, Yang Yang, Yan Zhang,
Yongfeng Yang, Hairong Zheng, Dong Liang, Meiyun Wang*,
Zhanli Hu*. Synthetic MR guided whole PET segmentation
via deep learning. SNMMI 2024, 241410.
[7] Wenbo Li#,
Zhenxing Huang#, Wenjie
Zhao, Haizhou Liu, Yaping Wu, Jianmin Yuan, Yang Yang, Yan Zhang, Yongfeng
Yang, Hairong Zheng, Dong Liang, Meiyun Wang*,
Zhanli Hu*. Learning a cross-attention whole-brain
segmentation for PET/MR images. SNMMI 2024, 241413.
[8] Hongyan Tang, Zhenxing Huang, Wenbo Li,
Yaping Wu, Jianmin Yuan, Yang Yang, Yan Zhang, Yongfeng Yang, Hairong Zheng,
Dong Liang, Meiyun Wang, and Zhanli Hu*. Automatic brain segmentation based on
the cross-fusion mechanism for 18F-FDG PET/MR. SNMMI 2024, 241198.