010-61934861

首页 > Model Zoo > PP-YOLOE-PaddlePaddle
PP-YOLOE-PaddlePaddle
图像 视觉 目标检测
2025-03-14 | 2945人看过
模型信息

PP-YOLOE是基于PP-YOLOv2的卓越的单阶段Anchor-free模型,超越了多种流行的YOLO模型。PP-YOLOE有一系列的模型,即s/m/l/x,可以通过width multiplier和depth multiplier配置。PP-YOLOE避免了使用诸如Deformable Convolution或者Matrix NMS之类的特殊算子,以使其能轻松地部署在多种多样的硬件上。

论文地址:PP-YOLOE: An evolved version of YOLO

Github工程地址:ppyoloe yolov6 后处理

数据集(COCO):https://cocodataset.org/

资源准备

  1. 数据集资源下载

    COCO数据集是一个可用于图像检测(image detection),语义分割(semantic segmentation)和图像标题生成(image captioning)的大规模数据集。这里只需要下载2017 Train images\2017 Val images\和对应的annotation。下载请前往COCO官网

  2. 模型资源下载

    百度网盘: ppyoloe_s.pdmodel, ppyoloe_s.pdiparams

  3. 清微github modelzoo仓库下载

    git clone https://github.com/tsingmicro-toolchain/ts.knight-modelzoo.git

Knight环境准备

  1. 联系清微智能获取Knight工具链版本包 ReleaseDeliverables/ts.knight-x.x.x.x.tar.gz下面以ts.knight-3.0.0.11.build1.tar.gz为例演示

  2. 检查docker环境

    默认服务器中已安装docker(版本>=19.03), 如未安装可参考文档ReleaseDocuments/《TS.Knight-使用指南综述_V3.0.11.pdf》。

     docker -v
  3. 加载镜像

     docker load -i ts.knight-3.0.0.11.build1.tar.gz
  4. 启动docker容器

     docker run -v ${localhost_dir}/ts.knight-modelzoo:/ts.knight-modelzoo -it ts.knight:3.0.0.11.build1 /bin/bash

    localhost_dir为宿主机目录。

模型移植流程

1. 量化&编译

  • 模型准备

    如上述"Knight环境准备"章节所述,准备好ppyoloe_s的paddlepaddle权重文件以及下载yolov6工程放到src下。由于ppyoloe_s的后处理已经放在infer函数中处理,所以需要对原工程yolov6目录下的line134 增加如下一行代码:

    return cls_score_list, reg_lrtb_list

  • 量化数据准备

    这里使用COCO128数据集作为量化校准数据集,将数据放在${localhost_dir}/ts.knight-modelzoo/paddlepaddle/builtin/cv/detection/ppyoloe_s/dataset/

  • 模型转换函数、推理函数准备

    已提供量化依赖的模型转换和推理函数py文件: /ts.knight-modelzoo/paddlepaddle/builtin/cv/detection/ppyoloe_s/src/ppyoloe_s.py

  • 执行量化命令

    在容器内执行如下量化命令,具体量化、编译参数可见yolox_s_config.json。

    Knight --chip TX5368AV200 build --run-config dataset/ppyoloe_s_config.json
  • 量化后模型推理

    首先需要修改ppyoloe_s_infer.py反量化系数:

  • im.png

  • Knight --chip TX5368AV200 quant --run-config dataset/ppyoloe_s_infer_config.json

2. 仿真

#准备bin数据
python src/make_image_input_onnx.py --input test_data/bus.jpg --outpath /TS-KnightDemo/Output/ppyoloe_s/npu

#仿真
Knight --chip TX5368AV200 run --run-config dataset/ppyoloe_s_config.json

#仿真输出txt文件转numpy
show_sim_result --sim-data /TS-KnightDemo/Output/ppyoloe_s/npu/result-transpose_3.tmp_0_p.txt --save-dir /TS-KnightDemo/Output/ppyoloe_s/npu/
show_sim_result --sim-data /TS-KnightDemo/Output/ppyoloe_s/npu/result-concat_15.tmp_0_p.txt --save-dir /TS-KnightDemo/Output/ppyoloe_s/npu/

#模型后处理。 scales为模型输出top_scale,需要根据实际量化结果指定该值
python src/post_process.py --image test_data/bus.jpg --img-size 640 --numpys \
/TS-KnightDemo/Output/ppyoloe_s/npu/result-transpose_3.tmp_0_p.npy \
/TS-KnightDemo/Output/ppyoloe_s/npu/result-concat_15.tmp_0_p.npy \
--scales 0.00383477 0.05996619  --save_dir /TS-KnightDemo/Output/ppyoloe_s/npu/

3. 性能分析

Knight --chip TX5368AV200 profiling --config dataset/ppyoloe_s_config.json

4. 仿真库

5. 板端部署

支持芯片情况

芯片系列是否支持
TX510x支持
TX5368x_TX5339x支持
TX5215x_TX5239x200_TX5239x220支持
TX5112x201_TX5239x201支持
TX5336AV200支持

版本说明

2023/11/23 第一版

LICENSE

ModelZoo Edge 的 License 具体内容请参见LICENSE文件

免责说明

您明确了解并同意,以上链接中的软件、数据或者模型由第三方提供并负责维护。在以上链接中出现的任何第三方的名称、商标、标识、产品或服务并不构成明示或暗示与该第三方或其软件、数据或模型的相关背书、担保或推荐行为。您进一步了解并同意,使用任何第三方软件、数据或者模型,包括您提供的任何信息或个人数据(不论是有意或无意地),应受相关使用条款、许可协议、隐私政策或其他此类协议的约束。因此,使用链接中的软件、数据或者模型可能导致的所有风险将由您自行承担。

发表评论
全部评论(0)
    0.127242s