010-61934861

首页 > Model Zoo > MobileVit_S-Pytorch
MobileVit_S-Pytorch
图像 视觉 分类
2024-08-30 | 1932人看过
模型信息

MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer,MobileViT 主要是为了解决 ViT 网络的缺陷而设计提出的,将 CNN 的优点融入到 Transformer 的结构中以解决 Transformer 网络存在的训练困难、迁移困难、调整困难的缺点,加快网络的推理和收敛速度,使得网络更加稳定高效。

论文:[《MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer》](https://arxiv.org/abs/2110.02178)

开源模型链接:https://github.com/huggingface/pytorch-image-models/blob/v0.6.12/timm/models/mobilevit.py

数据集(ImageNet):http://www.image-net.org/

资源准备

  1. 数据集资源下载

    ImageNet是一个不可用于商业目的的数据集,必须通过教育网邮箱注册登录后下载,请前往官方自行下载 ImageNet 2012 val。

  2. 模型资源下载

    mobilevit_s pytorch权重

  3. 清微github modelzoo仓库下载

    git clone https://github.com/tsingmicro-toolchain/ts.knight-modelzoo.git

Knight环境准备

  1. 联系清微智能获取Knight工具链版本包 ReleaseDeliverables/ts.knight-x.x.x.x.tar.gz。下面以ts.knight-2.0.0.4.tar.gz为例演示。

  2. 检查docker环境

    默认服务器中已安装docker(版本>=19.03), 如未安装可参考文档ReleaseDocuments/《TS.Knight-使用指南综述_V1.4.pdf》。

     docker -v
  3. 加载镜像

     docker load -i ts.knight-2.0.0.4.tar.gz
  4. 启动docker容器

     docker run -v ${localhost_dir}/ts.knight-modelzoo:/ts.knight-modelzoo -it ts.knight:2.0.0.4 /bin/bash

    localhost_dir为宿主机目录。

快速体验

    将下载好的数据放在/ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/data/imagenet/images/val,并执行valprep.sh脚本对

    图片进行分类。

    在docker 容器内运行以下命令:

cd /ts.knight-modelzoo/pytorch/builtin/cv/classification/
sh mobilevit_s/scripts/run.sh

模型移植流程

1. 量化

  • 模型准备

    如上述"Knight环境准备"章节所述,准备好mobilevit_s pytorch权重文件。

  • 量化数据准备

    将下载好的数据放在${localhost_dir}/ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/data/imagenet/images/val,并执行valprep.sh脚本对图片进行分类。在数据集中选200张图片作为量化校准数据集, 通过命令行参数-i 200指定图片数量,-d指定数据集路径。

  • 模型转换函数、推理函数准备

    已提供量化依赖的模型转换和推理函数py文件: 已提供量化依赖的模型转换和推理函数py文件: /ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/src/mobilevit_s.py

  • 执行量化命令

    在容器内执行如下量化命令,生成量化后的文件 mobilevit_s_quantize.onnx 存放在 -s 指定输出目录。

    Knight --chip TX5368AV200 quant onnx -m mobilevit_s
    	-w /ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/weight/mobilevit_s-38a5a959.pth
    	-f pytorch 
    	-uds /ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/src/mobilevit_s.py 
    	-if infer_imagenet_benchmark 
    	-s ./tmp/mobilevit_s 
    	-d /ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/data/imagenet/images/val 
    	-bs 1 -i 200

    2. 编译

    Knight --chip TX5368AV200 rne-compile --onnx mobilevit_s_quantize.onnx --outpath .

    3. 仿真

    #准备bin数据
    python3 src/make_image_input_onnx.py  --input /ts.knight-modelzoo/pytorch/builtin/cv/classification/mobilevit_s/data/imagenet/images/val/n07749582 --outpath . 
    #仿真
    Knight --chip TX5368AV200 rne-sim --input model_input.bin --weight mobilevit_s_quantize_r.weight --config  mobilevit_s_quantize_r.cfg --outpath .

    4. 性能分析

    Knight --chip TX5368AV200 rne-profiling --weight mobilevit_s_quantize_r.weight --config  mobilevit_s_quantize_r.cfg --outpath .

    5. 仿真库

    6. 板端部署

    支持芯片情况

    芯片系列是否支持
    TX510x支持
    TX5368x_TX5339x支持
    TX5215x_TX5239x200_TX5239x220支持
    TX5112x201_TX5239x201支持
    TX5336AV200支持

    版本说明

    2023/11/23 第一版

    LICENSE

    ModelZoo Edge 的 License 具体内容请参见LICENSE文件

    免责说明

    您明确了解并同意,以上链接中的软件、数据或者模型由第三方提供并负责维护。在以上链接中出现的任何第三方的名称、商标、标识、产品或服务并不构成明示或暗示与该第三方或其软件、数据或模型的相关背书、担保或推荐行为。您进一步了解并同意,使用任何第三方软件、数据或者模型,包括您提供的任何信息或个人数据(不论是有意或无意地),应受相关使用条款、许可协议、隐私政策或其他此类协议的约束。因此,使用链接中的软件、数据或者模型可能导致的所有风险将由您自行承担。




    发表评论
    全部评论(0)