YOLO11环境配置以及快速使用 
 
 
本文档详细介绍了在 NVIDIA Jetson 设备上部署 Ultralytics YOLO11 的步骤。 
这里以jetpack6.2的环境下,部署深度学习模型yolo11环境配置以及快速使用。 
 
创建虚拟环境 conda create -n yolov11 python=3.10 -y  |   
 
  
进入虚拟环境,查看python版本 source /opt/miniconda3/bin/activate  conda activate yolov11 
python --version  |   
 
   
在虚拟环境中找到自己的site-packages路径 python -c "import site; print(site.getsitepackages())"  |  
 在虚拟环境中使用tensorrt需要软链接一下,后面要换成自己的site-packages路径 sudo ln -s /usr/lib/python3.10/dist-packages/tensorrt* /home/nano/miniconda3/envs/yolov11/lib/python3.10/site-packages/  |  
 测试一下是否成功 python -c "import tensorrt;print(tensorrt.__version__)"  |  
 更新软件包列表,升级pip sudo apt update sudo apt install python3-pip -y pip install -U pip   |  
  
安装 ultralytics 带有可选依赖项的 pip 软件包  
耐心等待直到下载完成,然后reboot重启  
创建一个soft文件夹来放置包 
让系统能访问 NVIDIA CUDA 官方软件仓库,并安装 cuSPARSELt 库及其开发包用于用 NVIDIA 的稀疏矩阵加速库。  
 
sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt-get update sudo apt-get -y install libcusparselt0 libcusparselt-dev  |  
  
安装PyTorch 和 Torchvision  
如果遇到下载超时的问题,可以通过本地安装,PyTorch 和 Torchvision已经放在了附件工具包文件夹中 将PyTorch 和 Torchvision拷贝到文件夹下,这里通过mobaxterm传输到soft文件夹下。  
进行本地安装  cd /home/nano/soft/ pip install torch-2.5.0a0+872d972e41.nv24.08-cp310-cp310-linux_aarch64.whl pip install torchvision-0.20.0a0+afc54f7-cp310-c  |  
  
安装 onnxruntime-gpu1.20.0  
 
如果出现下载过慢,我们附件准备了下载好的文件,可以直接本地安装,将onnxruntime-gpu拷贝到soft文件夹下,onnxruntime-gpu的包也已经被放在了工具包文件下,这里通过mobaxterm拷贝到soft文件下  
 
本地安装onnxruntime_gpu   pip install onnxruntime_gpu-1.20.0-cp310-cp310-linux_aarch64.whl   |  
 onnxruntime-gpu 会自动恢复 numpy 版本到最新版本。我们需要重新安装 numpy 到 1.23.5   
查看当前numpy版本 python -c "import numpy; print(numpy.__version__)"  |  
  
通过执行以下命令来安装numpy 到 1.23.5  查看pytorch运行时调用的pytorch,cuda、cudnn,torchvision版本: python -c "import torch; import torchvision; print('PyTorch version:', torch.__version__); print('CUDA available:', torch.cuda.is_available()); print('CUDA version:', torch.version.cuda); print('cuDNN enabled:', torch.backends.cudnn.enabled); print('cuDNN version:', torch.backends.cudnn.version()); print('Torchvision version:', torchvision.__version__)"  |   1.5 推理验证在自己的路径下创建文件夹yolo,进入文件夹 进入虚拟环境 运行命令,命令会下载yolo11n.pt和推理的图片bus.jpg并推理。 #用yolo11n.pt推理bus.jpg yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'  |  
 等待结束后,结果如下  
yolo11n.pt和推理的图片bus.jpg被保存在yolo目录下,yolo11n.pt推理bus.jpg的结果保存在runs/detect/predict目录下,如果多次运行predict后的数字可能不同,以结果显示的路径为准,推理结果如下:  
终端输入命令,Modes是模型路径,format是指定格式 yolo export model=yolo11n.pt format=onnx  |  
    成功导出了yolo11n.onnx模型 输入命令 trtexec --onnx=yolo11n.onnx --saveEngine=yolo11n_pytorch.engine  |  
 导出完成 推理验证yolo predict task=detect model=yolo11n_pytorch.engine imgsz=640 source=bus.jpg  |  
  
 |