人工智能学院本科教育教学评估系列活动之学科竞赛典型成果

文摘   2024-10-15 21:38   吉林  

创新领航,成果辉煌。2020级本科生董成麒以第一负责人主持的《基于轻量化混合的暗光可视媒体增强方法》是学院第一个获得国家级大创立项的项目,董成麒以卓越的创新能力和严谨的科研态度,展现了人工智能学院学子的无穷潜力。2021级本科生赵家兴则在国家级大创项目中脱颖而出,主持的《基于实例级序号混合的动态点云数据增强》获得学院第一个且目前唯一一个国家级大创优秀结项。他们不仅为学院争光,也为更多学生树立了榜样,鼓励大家不断追求卓越,勇攀高峰。



成果一
基于轻量化混合的暗光可视媒体增强方法



该项目针对暗光视频增强研究较少、全局亮度差异、时序一致性、亮度不均衡、闪烁和伪影、细节和噪声问题提供了有效可行的解决方案。



暗光增强


项目结合人工智能、软件相关学科课程,从日常生活实际需求出发,以互联网不同类型媒体为主要研究对象,研究数据驱动的暗光可视媒体增强方法。实现新型网络结构、理论突破的同时,基于所提出的模型构建暗光可视媒体增强应用程序,为智能终端提供服务,满足用户对低质量图像视频处理的需求。

项目创新性提出了Improved U-Net,在获取图像深层特征信息的同时,进行了两个降采样操作来平衡计算工作量。在降采样后,执行一个具有对称结构的上采样过程。与U-Net直接拼接编码器和解码器的通道不同,为每个上采样操作添加了残差结构并进行了特征再处理。

受可分离卷积的启发,创造性地提出了一个基于行-列均值和最大值的注意模块。行和列的均值和最大值代表行-列级信息,这是相对于整个特征图的局部信息,但所有行和列的均值和最大值则可以表示特征图的全局信息。通过自注意操作,可以融合所有的行-列特征信息,从而得到图像的全局信息。

受StableL的启发,认为正常光视频的相邻帧差应该与增强视频的相邻帧差相一致。认为这将允许模型学习更多关于输入的两个视频帧之间的潜在时间稳定性信息并提出临帧损失函数。



实验结果



该项目成功结项,获得互联网+校级银奖,论文发表在CCF-B类CGF期刊




成果二
基于实例级序列混合的
动态点云数据增强



创建具有像素级标注的大型激光雷达数据集是一项重大挑战。虽然已经开发了许多数据增强方法来减少对人工标注的依赖,但这些方法主要侧重于静态场景,而忽略了动态场景数据增强的重要性,而动态场景对于自动驾驶至关重要。为了解决这个问题,该项目提出了 D-Aug,一种专为动态场景增强量身定制的激光雷达数据增强方法。与以往的方法不同,该方法侧重于改善相邻帧中物体的连续性。



D-Aug 可提取物体并将其插入动态场景,同时考虑到这些物体在相邻帧中的连续性。为实现动态场景的无缝插入,该项目提出了一种参考引导方法,其中包括动态碰撞检测和旋转对齐。此外,还提出了一种像素级道路识别策略,以有效确定合适的插入位置。该项目使用 nuScenes 数据集与各种 3D 检测和跟踪方法对我们的方法进行了验证,通过对比实验证明了 D-Aug。

项目创新性地提出了像素级道路评估方法,通过对地图进行裁剪以提高效率。同时,D-Aug 实现了精确的提取功能,这一过程包括检索与对象相关的所有点云及其相应的边界框。随机选择插入位置会导致各种问题,例如物体漂浮在地面上或与交通流方向不一致,尤其是在动态场景中。直观地说,现有物体的位置可以引导插入。因此,该项目引入了参考引导插入算法,并实现了碰撞检测。



实验结果表明,在大多数情况下,采用 D-Aug 时性能都有所提高。值得注意的是,CenterPoint 在几乎所有指标上都有所提高。并且在所有基线方法中都观察到了增强,尤其是在 “Car”、“Tru”、“Bus ”和 “Tra ”等类别中,这些类别有一个共同特点:它们通常比其他类别表现出更高的速度。很明显,动态对象从 D-Aug 增强中获益更大。

项目产出论文一篇,预发表于arxiv,项目产出国家级发明专利一项,已获授权。项目的技术成果在吉林大学第十四届挑战杯拟培育项目中斩获校内第六名,作为人工智能学院唯一院长推荐项目在十四届挑战杯上获银奖。



人工智能学院

吉大南校正新楼7F


吉林大学人工智能学院
介绍吉林大学人工智能学院建设情况
 最新文章