MNIST是一个经典的入门级图像分类任务,是学习机器学习和深度学习的重要“起点”。
1. 1台REX1032服务器(卡满插且卡均正常)。
2. 清微docker镜像:TX8100_REX1032_Release_v4.3.8.tar.gz。
3. Conda环境:opt.miniconda.tar.gz。
4. 模型权重准备, 在开源官网直接下载权重,使用开源项目转换为onnx模型。
5. 工具链TxNN软件包:txnn_1.3.0.tar.gz,解压后,内容如下:
1. 使用终端工具ssh登录REX1032服务器
执行如下命令行:
# HOST_IP为REX1032服务器IP,用户需替换为实际IP地址数值 ssh -X user@HOST_IP
2. 解压压缩包
将opt.miniconda.tar.gz,TX8100_REX1032_Release_v4.3.8.tar.gz放至登录用户指定目录下,如用户根目录(~/,下文中绝对路径/login_home),并解压:
cd ~/ tar -xvf opt.miniconda.tar.gz
解压后得到miniconda目录。
解压docker镜像压缩包, 执行如下命令行:
sudo tar -zxf TX8100_REX1032_Release_v4.3.8.tar.gz
解压得到文件:
TX8100_REX1032_Release_v4.3.8.tar Tsm_driver_4.3.8_x86_64_installer.run
3) 加载docker镜像
执行如下命令行:
sudo docker load -i TX8100_REX1032_Release_v4.3.8.tar
Load完毕可以使用如下命令查看镜像是否load成功:
sudo docker images
4) 创建容器
执行如下命令创建容器:
sudo docker run -d --name txnn --ipc=host --privileged -v /dev:/dev -v /tmp:/tmp -v /lib/modules:/lib/modules -v /sys: /sys -v /login_home/xxx/miniconda/:/opt/miniconda -v /login_home/xxx/txnn_convert:/login_home/xxx/txnn_convert -v /login_home/xxx/txnn_infer/:/login_home/xxx/txnn_infer/ -w /login_home/xxx/txnn_infer hub.tsingmicro.com/tx8/v4.3.8: kuiper-rex1032-release
注意:章节资源准备中的压缩包均需要放在/login_home/xxx 目录下,挂载至容器内。
5) 配置环境变量
在容器内配置环境变量
sudo docker exec -it txnn /bin/bash sed -i '$a export PATH="/opt/miniconda/bin:$PATH"' /root/.bashrc sed -i '$a export LD_PRELOAD=/usr/lib/x86_64-linux-gnu/libffi.so.7' /root/.bashrc sed -i '$a export LD_LIBRARY_PATH=/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH' /root/.bashrc sed -i '$a export HOME=/opt/miniconda' /root/.bashrc source /root/.bashrc # 首次设置需要用source进入conda,后面切换可以直接 conda activate tx8_txnn source activate tx8_base # 切换其他环境 conda activate tx8_txnn
此时环境变量即可生效,相关conda环境对应说明如下:
tx8_base:用于模型训练;
tx8_txnn:用于模型推理;
用户在Host端部署执行环境,执行启动Device
拉起TX8 Device并等待ready,新开会话窗口2,执行如下命令:
./Tsm_driver_4.3.8_x86_64_installer.run install silicon
1. 解压工具链TxNN软件包
将`txnn_1.3.0.tar.gz`放至登录用户指定目录下,如用户根目录(~/,下文中绝对路径/login_home),并解压:
cd ~/ tar -xvf txnn_1.3.0.tar.gz
解压后得到`txnn_1.3.0`目录。解压后,与该示例相关的内容如下:其中:
mnist文件夹中包含运行mnist模型相关的模型,数据和脚本。
script文件夹中 deploy文件夹为环境部署文件夹,其下install_vllm.sh文件为部署CV模型执行文件;
txnn.1.3.0.tar.gz压缩包为推理引擎版本包。
2 进入docker容器
执行如下命令进入容器:
sudo docker exec -it txnn /bin/bash source activate txnn
3. 执行环境部署脚本
进入登录用户home目录,带参数执行install_vllm.sh脚本,共需要传入2个参数,分别为:1. HOME_PATH 目录;2. VERSION版本号。
示例如下
cd $HOME_PATH/txnn_1.3.0/script/deploy #带参数运行脚本 bash install_vllm.sh /login_home/xxx txnn.1.3.0
4. 编译onnx模型生成板端运行文件
解压script/TxCompiler.1.3.0.tar.gz 工具,直接执行其中的sh命令接口,示例如下:
tar -xzvf TxCompiler.1.3.0.tar.gz cd TxCompiler #将onnx模型作为入参 bash scripts/TxCompiler.sh mnist_fp16.onnx
mnist目录下提供有脚本: detect.py和eval.py,供用户在docker内执行,体验推理功能。
cd $HOME_PATH/txnn_1.3.0/mnist python detect.py --chip_out $HOME_PATH/script/TxCompiler.1.3.0/output/mnist/soc/chip_out/node_0_0 --source ./data/images/4.png python eval.py --chip_out $HOME_PATH/script/TxCompiler.1.3.0/output/mnist/soc/chip_out/node_0_0 --source ./data/mnist_dataset/t10k/
2025/4/8 第一版
Copyright © 2019 TSING MICRO.com.cn All Rights Reserved 清微智能 版权所有
京公网安备 11010802041762号
京ICP备19019133号