TOP1 | 基于多视角融合的CBCT图像牙齿实例分割算法
最新更新时间: 2024-07-01 10:01:00
作者:李孜政, 李淳芃, 黄晓峰, 肖云鹏
单位:郑州大学河南先进技术研究院;中国科学院大学;中国科学院计算技术研究所智能计算技术研究中心;首都医科大学附属北京友谊医院口腔科
摘要:在牙科治疗中, 准确、快速地从锥形束 CT 图像(CBCT)分割出单颗牙齿具有重要意义. 为了解决咬合面难以处理和 CBCT 图像分辨率较低的问题, 提出一个基于多视角融合的 CBCT 图像牙齿实例分割算法. 首先, 将 CBCT数据转化为水平面和矢状面两个视角的序列切片; 其次, 结合不同视图的数据特点, 使水平面分割结果为矢状面分割提供分割指导和实例标签信息; 最后, 基于矢状面图像的实例分割结果还原 CBTC 数据, 得到高精度的牙齿实例分割结果. 以基于 Test29 构造的 CBCT 数据集为例, 以平均 Dice 系数为评价指标, 所提算法在牙齿和咬合面的平均Dice 系数分别达到 89.74%和93.56%, 与 CGDNet 等算法相比, 平均提升 0.82~3.45 个百分点; 同时, 平均分割速度为9.2s, 实现短时间内完成 CBCT 数据高精度实例分割.
本文算法框架
长按识别二维码阅读全文
或复制网址访问
https://www.jcad.cn/article/doi/10.3724/SP.J.1089.2023-00535
TOP2 | 基于混合多模注意力融合矫正的深度图超分辨率重建
最新更新时间: 2024-07-01 11:13:00
作者:侯兵, 董秀成, 杨陈成, 雍萧, 雎雅玲
单位:西华大学电气与电子信息学院; 四川大学锦江学院
摘要:针对低成本深度相机捕获的深度图中通常存在模糊和分辨率低等多种退化问题, 联合同场景高分辨率彩色图像, 提出一种混合多模注意力融合矫正网络. 为了有效地利用彩色图像的结构信息, 使用注意力机制迭代对齐及融合深度特征和彩色结构特征, 并通过彩色结构特征和感知边缘图对融合特征进行矫正. 首先在深度边缘感知模块, 联合低分辨率深度图和彩色边缘图提取高分辨率深度边缘图; 然后使用侧窗边缘保留模块提取引导彩色图像中有用的结构信息, 减少多余纹理信息的影响; 最后在多模注意力融合矫正模块中, 利用注意力机制提取深度特征和彩色结构特征的结构注意力分布, 使 2 种模态特征实现对齐及融合, 并利用彩色结构特征和高分辨率深度边缘图的空间注意力权重增强对深度边缘的监督, 减少模糊和伪影问题. 在 NYUv2 数据集和 Middlebury 数据集(2005)上的实验结果表明, 均方根误差平均测试结果分别为 2.96 和1.45, 相对于次优方法分别降低了 0.10 和 0.08; 该网络能重建出边缘更加清晰和伪影更少的高分辨率深度图.
HMAFCN 结构
长按识别二维码阅读全文
或复制网址访问
https://www.jcad.cn/article/doi/10.3724/SP.J.1089.2024-00105
TOP3 | 考虑材料不确定性的多自由度柔顺机构稳健性拓扑优化设计
最新更新时间: 2024-07-01 9:53:00
作者:占金青, 杨新峰, 周程灵, 刘敏
单位:华东交通大学载运工具与装备教育部重点实验室; 中国科学院合肥物质科学研究院智能机械研究所
摘要:为了减小机构性能对材料不确定性的敏感程度, 提出一种考虑材料不确定性的多自由度柔顺机构拓扑优化方法. 首先利用级数最优线性估值法对材料随机场进行离散化, 利用多项式混沌展开式和Smolyak 稀疏网格积分法求解随机响应统计矩; 然后引入输入/输出耦合约束, 以多输入多输出柔顺机构输出位移加权和的期望值最大化以及标准差最小化为优化目标, 构建多自由度柔顺机构耦合约束稳健性拓扑优化数学模型. 自行设计的 2 个多自由度微执行器数值算例结果表明, 与无耦合约束确定性优化结果比较, 耦合约束稳健性优化设计的多输入多输出柔顺机构构型有所不同, 具有更好的稳健性, 并且输入/输出耦合效应能够得到有效抑制; 证明了所提方法的有效性.
输入/输出耦合示意图
长按识别二维码阅读全文
或复制网址访问
https://www.jcad.cn/article/doi/10.3724/SP.J.1089.2023-00530
TOP4 | 全局特征增强及掩模矫正的半监督视频目标分割方法
最新更新时间: 2024-07-01 10:05:00
作者:潘祖望, 桂彦, 易宇航, 张建明
单位:长沙理工大学道路灾变防治及交通安全教育部工程研究中心;长沙理工大学计算机与通信工程学院
摘要:针对视频目标分割中存在的相似目标辨别精确度低、分割误差累积等问题, 提出一种全局特征增强及掩模矫正的半监督视频目标分割方法. 首先采用全局上下文感知模块增强特征, 利用 2 个全局存储单元建模特征的全局依赖关系, 捕获视频帧内和帧间的全局上下文信息, 提高分割模型对相似干扰物的辨别能力; 然后提出细节感知解码器, 在解码初期阶段通过跳跃连接融合编码器特征, 学习局部细节增强的解码特征; 最后在解码后期阶段部署掩模矫正模块, 估计粗糙分割掩模中不确定区域, 并对模糊目标边界及分割错误区域进行矫正, 获得精确的视频目标分割结果. 在具有挑战的 DAVIS 和 YouTube-VOS 基准数据集上进行大量实验的结果表明, 所提方法明显优于文中对比方法, 在 YouTube-VOS 2019 验证集中的性能分数 相较于 STCN 和 GSFM 方法分别提高了 1.6 和 0.3.
本文方法框架
长按识别二维码阅读全文
或复制网址访问
https://www.jcad.cn/article/doi/10.3724/SP.J.1089.2023-00738
TOP5 | 面向多标签图像识别的语义感知增强区域金字塔模型
最新更新时间: 2024-07-01 10:12:00
作者:胡云青, 陈强龙, 张寅
单位:浙江大学计算机科学与技术学院
摘要:现有多标签图像识别方法主要利用深层特征, 忽略了多层次特征交互; 由于物体类别、布局、尺度等差异性较大, 现有针对单标签图像识别的区域建议方法无法充分挖掘多标签图像中语义多样性强的局部区域 . 为此, 提出一种基于语义感知增强区域金字塔模型的多标签图像识别方法, 通过有效地融合不同层次的图像特征, 生成适应于多尺度目标的感兴趣区域. 该方法引入 2 个互补的阶段: 在全局阶段, 通过双路径特征融合金字塔对多层次特征进行编码, 有效地融合深层语义信息与浅层细节信息; 在局部阶段, 利用语义感知区域建议模块和区域调整模块获得具有高度语义多样性和判别性的感兴趣区域. 通过联合多个局部区域与全局图像的监督学习, 所提方法在 MS-COCO 和 VOC 2007 等基准数据集的评测中取得了显著的效果提升, mAP 指标分别提升 4.3 和 4.2 个百分点; 在缺失标签场景下的多标签学习中, 该方法也以明显的优势超越了同类方法.
本文方法示意图
长按识别二维码阅读全文
或复制网址访问
https://www.jcad.cn/article/doi/10.3724/SP.J.1089.2023-00763
还没关注?点击下方“卡片”关注,获取第一时间资讯
2024年第2期论文 速览
本公众号发布的所有原创文章欢迎转发和转载,但必须注明作者和文章出处为《计算机辅助设计与图形学学报》公众号;任何媒体、网站或个人不得对本公众号原创图文进行内容修改或摘编。除本公众号原创的图文之外,本公众号发布的图文旨在学术交流,版权归原作者所有,本公众号将不承担任何法律责任;非原创内容均已对来源作出标注,如有侵权,请留言与本公众号联系,我们将及时处理。《计算机辅助设计与图形学学报》拥有最终解释权。