标题:
SoybeanNet: Transformer-based convolutional neural network for soybean pod counting from Unmanned Aerial Vehicle (UAV) images
第一作者 :Jiajia Li
美国密歇根州立大学
第二作者 :Raju Thada Magar
美国密歇根州立大学
通讯作者:Zhaojian Li
美国密歇根州立大学
🛰️🛩️🌱🌱🌱🌱🌱🌱🌱🌱🌱🧠💻
早期决策通过大豆荚计数可以在种植早期或中期预测最终产量,帮助农民优化施肥、灌溉等农业管理策 目前大豆荚的计数算法主要集中在人工控制环境,缺乏在真实田间条件下的高效解决方案。 通过大豆荚计数可以在种植早期或中期预测最终产量,帮助农民优化施肥、灌溉等农业管理策略。
建立一个高效且准确的大豆荚计数框架,能够同时进行计数和定位。 采集并开源首个基于无人机的大豆荚点标注数据集。 通过与当前最先进方法的对比,验证模型的实际适用性和鲁棒性。
研究方法:
无人机(DJI Mavic2)在13英尺高度和53-58度角下拍摄113张田间图像。 数据集包含262,611个手动标注的豆荚点,采集于自然光照条件下的真实田间环境。 基于Swin Transformer的骨干网络,结合回归分支和分类分支。 结合欧几里得距离损失和交叉熵损失优化点定位和分类。 与不同的顶刊/会文章模型做对比。
模型表现:
SoybeanNet-L模型在测试数据集上计数准确率达到84.51%,显著优于其他方法。
SoybeanNet-S在鲁棒性方面表现最佳,R²为0.8642。半监督学习
技术细节优势:
相比传统的边界框标注,点注释方法显著减少了数据标注时间和成本。
Swin Transformer骨干网络:结合局部注意力机制,处理大尺寸图像的性能优越。
匈牙利匹配算法:解决多重预测点和地面实况点的匹配问题。
应用潜力:模预测的豆荚数量与实际产量之间呈现显著正相关,相关性系数达0.6618。
总结:研究提出了SoybeanNet,一个结合Transformer和CNN的新型框架,为大豆荚计数提供了高效解决方案,尤其在无人机采集的真实田间场景中展示了强大的适应性。技术亮点包括:1. 使用点标注和匈牙利算法提升计数效率;2. 采用Swin Transformer增强空间层次信息的处理能力。尽管模型在不同背景和边缘区域的豆荚计数上存在一定误差,但通过扩展数据集和优化飞行角度可进一步改进其鲁棒性。未来工作可聚焦实时部署和跨区域适用性,以提升精准农业的智能化水平。
推荐指数:⭐⭐⭐⭐⭐⭐ 非常好的一篇论文!!!
链接
—
https://doi.org/10.1016/j.compag.2024.108861【权责声明】