深度学习论文: ICPR 2026 Competition on Low-Resolution License Plate Recognition
深度学习论文: ICPR 2026 Competition on Low-Resolution License Plate RecognitionICPR 2026 Competition on Low-Resolution License Plate RecognitionPDF: https://arxiv.org/abs/2604.22506PyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com/shanglianlm0525/PyTorch-Networks1 概述自动车牌识别ALPR系统在交通执法、电子收费等场景中应用广泛。在标准成像条件下车牌检测与识别性能已趋于饱和。然而在真实监控环境中由于摄像头距离远、硬件限制以及强压缩车牌图像常常以低分辨率Low-Resolution, LR获取字符模糊、失真识别难度显著增加。尽管实际需求迫切低分辨率车牌识别LRLPR仍是一个极具挑战且研究不足的问题现有最先进方法在真实低质量图像上的识别率也仅为50-60%。为了推动该领域发展本文在ICPR 2026上组织了首届低分辨率车牌识别竞赛。竞赛基于LRLPR-26数据集该数据集包含20,000个训练轨迹每个轨迹含同一车牌的5张低分图和5张高分图和3,000个测试轨迹每个轨迹含5张低分图。这是目前最大的真实低分与高分车牌配对数据集。竞赛吸引了来自41个国家的269支队伍最终99支队伍提交了有效结果。本文介绍了竞赛概况、数据集、评估协议、结果并详细分析了前五名团队的方法。2 竞赛详细说明组织者利用 YOLOv11 进行车牌检测并使用 BoT-SORT 进行跨帧跟踪。对于同一辆车远处的帧被标记为 LR 样本近处的帧则作为高分辨率High-Resolution, HR参考。最终的标注通过对 5 帧 HR 图像进行 OCR 识别并结合多数投票Majority Voting机制产生确保了 Ground Truth 的准确性。2.1 训练数据20,000个轨迹每个轨迹包含5张连续的低分辨率LR车牌图像5张连续的高分辨率HR车牌图像总计200,000张图像。数据分为两个场景场景A10,000轨迹相对受控环境白天、无雨。场景B10,000轨迹更具挑战性雨天、夜间、不同方向。车牌布局巴西样式3字母 4数字Mercosur样式3字母 1数字 1字母 2数字训练集提供了HR图像鼓励参赛者探索超分辨率等增强策略。2.2 测试数据3,000个轨迹全部来自场景B每个轨迹对应唯一车辆。每个轨迹仅包含5张LR图像无HR图像无标注。布局分布600轨迹巴西样式2,400轨迹Mercosur样式。2.3 竞赛阶段与提交格式公开测试阶段约1个月提供1,000个测试轨迹含部分标签用于反馈。每日最多5次提交总计最多25次。公共排行榜。盲测阶段约1周完整3,000个测试轨迹。排行榜私密仅能看见自己分数。每个队伍总计最多3次提交。提交格式每行track_id,plate_text;confidence2.4 评估协议主要指标识别率Recognition Rate定义正确识别的轨迹数 / 总测试轨迹数要求预测车牌字符串与真实标签完全匹配。次要指标用于平局时置信度差距Confidence Gap正确预测的平均置信度 − 错误预测的平均置信度值越大模型置信度校准越好。竞赛结果概览第一名识别率82.13%置信度差距 6.67%第二名81.73%第三名80.17%第四名80.10%第五名79.83%3 前五名团队方案详解 第一名DLmath韩国大学核心方法教师-学生框架联合训练超分辨率模型和OCR模型。输入为5 帧低分辨率LR图像输出为最终车牌识别文本。核心逻辑框架联合训练超分辨率SR模型与车牌 OCR 识别模型。学生分支以 LR 图像作为输入进行特征学习教师分支基于指数移动平均EMA 动态更新权重以降采样后的高分辨率HR图像作为监督信号引导学生分支完成超分特征拟合。模型组件超分骨干选用 HATFIR 与 MambaIRv2OCR 识别模块采用 GP-LPR。推理阶段采用后期融合策略将 5 帧图像输出的预测 Logits 加权求和后再解码有效提升车牌识别的鲁棒性与稳定性。 第二名AIO_JiangnamCoffee越南核心方法四阶段识别流程 多模型集成。空间变换Spatial Transformer Network, STN用于对齐倾斜的车牌。特征提取使用 SE-ResNet34-C 捕捉关键特征。序列建模引入 Transformer 编码器。预测采用连接时序分类Connectionist Temporal Classification, CTC损失进行解码。特别设计了一个 CNN 注意力模块来评估每帧的质量并对 5 帧特征进行加权融合。 第三名OpenOCR中国核心方法低分辨率车牌识别作为鲁棒场景文本识别问题不显式使用超分辨率。将问题视为鲁棒场景文本识别使用了 SVTRv2 架构。没有使用显式的超分模块而是通过字符级投票机制整合 20 个预测结果5 帧 × 4 个模型展现了强力 Backbone 的优势。第四名CAP2韩国核心方法几何感知预处理 双流识别 位置感知集成。利用 U-Net 生成文本区域掩码进行背景抑制并结合 DINOv3 等强力特征提取器进行双流识别。第五名UIT-MeoBeo越南核心方法多阶段、多帧OCR管道 结构感知解码。引入了时序 Transformer 进行跨帧融合并根据巴西和南方共同市场Mercosur的车牌布局如“三字母一数字一字母两数字”进行约束解码。5 总结与讨论竞争激烈前20名识别率仅差5.66个百分点第一名错误率仍达17.87%表明任务远未解决。方法多样性没有单一主导架构不同团队在超分辨率、直接识别、多帧融合、集成、布局约束等方面各有侧重。多帧利用是关键几乎所有顶级方案都有效利用了5帧轨迹结构投票、融合、时序建模。置信度差距很重要识别率相近时置信度差距差异大影响实际应用中的可靠性。