本帖最后由 AI数字世界 于 2025-10-31 17:31 编辑
Jetson Orin Nano的Jetpack6.2启动及系统配置
为实现一个高性能、低延迟的深度学习推理系统,将深度学习模型部署在 NVIDIA Jetson 开发板之上进而能够,支持图像分类、目标检测或语义分割等典型 AI 任务。为了确保后续开发环境的稳定与高效,项目的第一步是构建一个可靠的基础操作系统环境。这包括使用 JetPack 6.2 版本对 Jetson 设备进行系统烧录与初始化配置。本文档将详细记录从主机准备、镜像烧录、系统启动到基础开发环境搭建的全过程,以及搭建包含 CUDA、cuDNN、TensorRT 等关键加速库的完整 AI 开发栈。为后续模型优化、算法集成与应用部署奠定坚实基础。
文档内容包括
1.1 烧录镜像,制作启动卡 1.2 启动以及配置系统环境 1.3 连接MobaXterm以及安装工具链(可选) 1.4安装jtop工具 1.5 配置cuda cudnn tensorrt 1.6 安装MiniConda
1.1 烧录镜像,制作启动卡准备一张Micro SD卡,进行格式化。推荐使用64G及以上。这里以32GSD卡作为演示。 单击Format 选择是(Y) 打开balenaEtcher烧录工具。 选择从文件烧录 选择下载好的jetpack6.2版本的压缩包jp62-orin-nano-sd-card-image.zip,点击确定 选定目标磁盘,选择SD卡 单击现在烧录!开始烧录镜像 烧录完成,制卡成功! 1.2 启动以及配置系统环境将刻录好的MicroSD卡插入 Jetson Orin Nano侧面的插槽。 准备一根DP转HDMI的转接线,连接显示屏 接上显示器,连接电源线,键盘,鼠标。 Jetson Orin Nano会自动启动,并显示界面 等待启动完成 配置系统界面
勾选接受,继续。 选择语言 选择键盘布局 连接WIFI或者手机热点 选择时区 配置用户名,设备名和用户密码 使用最大值Maximum accept size作为整个分区大小。 安装CHromium Browser 如果失败就点击close跳过 等待配置完毕,系统会重启 重新进入登录页面 点击用户名,输入密码登录 进行界面初始化 跳过,右上角next 右上角next,跳过imporve 隐私不选,next Done
右下角双击Terminal打开终端 1.3 连接MobaXterm以及安装工具链(可选)终端输入ifconfig查看ip地址 打开MobaxTerm,连接Jetson orin nano 点击好的或者ok,选择是 输入密码 进入界面 1.4安装jtop工具jtop 是一个 实时监控工具,在jtop的界面中,可以看到每个CPU核心的使用率,GPU的显存使用情况,以及内存的使用情况等。此外,jtop还提供了关于CUDA、cuDNN、OpenCV等相关工具的版本信息。Jtop是一个重要的工具,在之后在运行程序的过程中,通过jtop可以了解到设备的资源使用情况,从而了解到模型的推理速度。 Jtop安装步骤如下: sudo apt update sudo apt install python3-pip sudo -H pip3 install -U pip sudo -H pip3 install -U jetson-stats |
网络不好可以换源下载,例如:
下载完成后需要reboot重启,运行jtop file:///C:/Users/VLKUS_Li/AppData/Local/Temp/ksohtml35440/wps56.jpg 按键盘q键即可退出 jtop工具的介绍最下方一行页面可以切换显示,ALL界面显示全部信息。 Model:是设备的型号和版本 MEM :包括 总内存、已使用内存、空闲内存、缓冲区内存、共享内存、缓存内存FAN:表示风扇转速的百分比 Swp:交换分区的总大小、已使用大小、剩余大小 Jetson Clocks:表示Jetson处理器的时钟状态,可以开启和关闭最大锁频状态。 Emc:表示嵌入式存储控制器,管理片外存储器和片外存储器控制器之间的通信。 NV Power:NVIDIA的电源管理 Uptime:系统的运行时间 GPU :GPU的使用率。
DSK: 磁盘的详细信息 。
GPU界面显示GPU动态信息 CPU界面显示CPU动态信息 MEM显示内存动态信息
Ctrl界面可以控制性能模式,风扇速度
INFO查看Jetson上的一些软件库包版本信息 1.5 配置cuda cudnn tensorrt打开~/.bashrc 在文本末尾添加 export CUDA_HOME=/usr/local/cuda # 显式声明CUDA根目录 export PATH=$CUDA_HOME/bin:$PATH # 确保优先级 export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH export TENSORRT_DIR=/usr/src/tensorrt export PATH=$TENSORRT_DIR/bin:$PATH export LD_LIBRARY_PATH=$TENSORRT_DIR/lib:$LD_LIBRARY_PATH export LIBRARY_PATH=$TENSORRT_DIR/lib:$LIBRARY_PATH |
使新的环境变量生效 使用命令验证
复制cudnn的头文件和库文件到cuda目录下 sudo cp /usr/include/cudnn*.h /usr/local/cuda/include sudo cp /usr/lib/aarch64-linux-gnu/libcudnn* /usr/local/cuda/lib64 |
从米联客论坛 https://www.uisrc.com/t-6245.html,下载Miniconda3-latest-Linux-aarch64.sh 将Miniconda3-latest-Linux-aarch64.sh拷贝到板端/home/nano/Downloads文件夹下 打开一个终端,cd 到指定位置并给文件赋予权限 cd /home/nano/Downloads chmod 777 ./* sudo ./Miniconda3-latest-Linux-aarch64.sh -b -p /opt/miniconda3 source /opt/miniconda3/bin/activate |
|