一、从田埂边的调试说起
上周在山东某果园部署YOLOv11模型,现场遇到这么个情况:模型在测试集上mAP跑到了0.89,结果到了实际果园里,下午逆光条件下的苹果识别率直接掉到0.3以下。农户蹲在田埂边抽着烟说:“你们这AI,还不如我眼睛好使。”这句话扎心了,但也点醒了我们——农业场景的视觉检测,从来都不是实验室里跑分那么简单。
农业视觉的三大难点:光照的剧烈变化、背景的高度复杂、目标尺度的极端差异。今天我们就聊聊,怎么让YOLOv11真正在田间地头“干活”。
二、数据这关过不去,模型再好也白搭
农业数据采集的第一原则:别在实验室里拍样本。我们早期用干净背景下的标准果实照片训练,到了现场完全失效。后来改成:
- 分时段采集:清晨、正午、傍晚、阴天各采一批,逆光顺光都要有
- 带环境干扰:叶子遮挡、泥土溅射、树枝交错这些“干扰项”反而是正样本
- 尺度覆盖:同一颗果子从开花到成熟,不同阶段都要标注
标注时有个细节:病虫害的标注框不要只框病斑,要把整个叶片或果实框进去。因为模型需要学习“健康部分与病变部分的对比关系”。我们吃过亏,只标病斑导致模型把正常叶脉误判为病害。
数据增强要“接地气”:
# 农业场景