扫码体验复合材料力学AI小助手
微CT扫描是一种先进的重建织物复合材料RVE内部结构的成像技术。然而,目前针对经济型分辨率微CT图像中紧密堆积纱线的自动化分离方法仍相对匮乏,这类图像仅能识别纱线,无法分辨单个纤维。
为解决这一难题,该研究提出了一种创新性方法。该方法利用深度学习技术进行图像分割,首先识别纱线横截面积,进而重建包含局部纤维取向的复合材料3D几何模型。
图像分割通过U-Net进行语义分割实现,验证准确率为87%(以mIOU计),并通过YOLO v8进行目标检测实现,验证准确率为99.5%(以mAP50计)。
为了提高训练数据集的代表性和效率,该研究采用ResNet50对具有不同形态特征的微CT切片进行分类,并将其分为高压缩、正常和过渡三种状态。根据各类切片出现的概率,按比例选取切片作为U-Net和YOLO v8的训练数据集。
此外,该研究仅使用单角度的微CT扫描进行纬纱和经纱单个横截面的提取,从而降低扫描成本和纱线之间穿透误差,并开发了一种考虑纱线物理约束的算法,以最大误差为18.065°估计局部纤维取向,比现有方法降低了近50%。
复合材料因其优异的性能在航空航天、汽车等领域得到广泛应用。织物复合材料作为一种重要的复合材料,其内部结构对其宏观性能有着重要影响。然而,传统的织物复合材料建模方法往往存在简化模型、纱线穿插等问题,导致建模精度不足。近年来,微观CT扫描技术被广泛应用于重建织物复合材料的内部结构。然而,现有的基于微观CT扫描的重建方法大多需要高分辨率设备,成本高昂,且缺乏自动分离紧密排列纱线的有效方法。
近日,《Composites Science and Technology》期刊发表了一篇由香港中文大学机械与自动化工程系、西北工业大学机械工程学院和香港中文大学智能设计与制造研究所的研究团队完成的基于CNN和物理特性的紧密排列织物复合材料RVE自动重建方法的研究成果。该研究提出了一种基于深度学习的织物复合材料代表性体积单元 (RVE) 重建方法,利用 U-Net 和 YOLO v8 网络从微观 CT 图像中自动分离纱线横截面,并考虑纱线物理特性估算局部纤维方向,从而实现更精确的有限元分析。论文标题为“Automatic reconstruction of closely packed fabric composite RVEs using yarn-level micro-CT images processed by convolutional neural networks (CNNs) and based on physical characteristics”。
该研究开发了一种基于深度学习的织物复合材料代表性体积单元 (RVE) 重建方法,旨在解决现有方法中纱线穿插、形状简化、纤维方向估计不准确等问题。
为了提高数据集的代表性和效率,该研究首先利用 ResNet50 对微观 CT 图像进行分类,将图像分为高压缩状态、正常状态和过渡状态,并根据其出现概率选择训练数据。
图1 (a) 使用微观CT扫描的预浸料样品,(b) 样品不同位置的微观CT扫描切片示例。
图2 方法概述。
首先,利用 U-Net 网络对微观 CT 图像进行语义分割,将经纬纱线分别标记为红色和绿色,实现纱线横截面的自动识别。然后,利用 YOLO v8 网络对平行方向上的纱线进行实例分割,并分离连接的纱线截面,确保纱线模型的独立性。
图3 U-Net的架构。
接着,使用 3D Slicer 将纱线截面转换为三维几何模型,并进行网格划分,为有限元分析提供基础。最后,考虑纱线截面的连续变化和纤维数量不变,建立局部纤维取向估计算法,更准确地预测纤维方向分布,提高有限元分析精度。
图4 使用3D Slicer生成的纬纱的三维数字模型侧视图。二值化的侧视图切片从纬纱的三维数字模型中导出
图5 (a) 纱线三维模型的组装,(b)扫描样品RVE的裁剪,以及(c)RVE的保形网格。
该方法能够有效地分离织物复合材料中的纱线横截面,并重建包含局部纤维方向信息的 RVE 模型,为有限元分析提供了更精确的几何模型。无需使用高分辨率的微观 CT 设备,降低了重建成本,并且自动化程度高,提高了重建效率。同时,该方法能够更准确地预测局部纤维方向,为有限元分析中的各向异性材料属性分配提供了更可靠的数据。
图6 RVE中重叠纱线之间的布尔运算。对红色和蓝色纱线进行差异操作,以消除重叠区域。
图7 基于重建几何模型的局部纤维取向计算示意图。
该研究提出了一种基于CNN和物理特性的自动重建方法,用于重建紧密排列的织物复合材料RVE模型。该方法无需高分辨率设备,能够有效降低建模成本,并提高建模精度,为织物复合材料的数值模拟和性能预测提供可靠的基础。该研究具有重要的理论意义和应用价值,有望推动织物复合材料建模技术的发展。
投稿邮箱:mech_of_comps@yeah.net
投稿模板:公众号后台回复“前沿追踪模板”获取
微 信:mech_of_comps
QQ 群:640676531,540731372