问答 店铺
热搜: ZYNQ FPGA discuz

QQ登录

只需一步,快速开始

微信登录

微信扫码,快速开始

微信扫一扫 分享朋友圈

已有 69 人浏览分享

开启左侧

Jetson Orin Nano搭建Jetpack6.2环境及系统配置

[复制链接]
69 0
本帖最后由 AI数字世界 于 2025-10-31 17:31 编辑

Jetson Orin NanoJetpack6.2启动及系统配置


为实现一个高性能、低延迟的深度学习推理系统,将深度学习模型部署在 NVIDIA Jetson 开发板之上进而能够,支持图像分类、目标检测或语义分割等典型 AI 任务。为了确保后续开发环境的稳定与高效,项目的第一步是构建一个可靠的基础操作系统环境。这包括使用 JetPack 6.2 版本对 Jetson 设备进行系统烧录与初始化配置。本文档将详细记录从主机准备、镜像烧录、系统启动到基础开发环境搭建的全过程,以及搭建包含 CUDA、cuDNN、TensorRT 等关键加速库的完整 AI 开发栈。为后续模型优化、算法集成与应用部署奠定坚实基础。


文档内容包括
1.1 烧录镜像,制作启动卡        
1.2 启动以及配置系统环境        
1.3 连接MobaXterm以及安装工具链(可选)        
1.4安装jtop工具      
1.5 配置cuda cudnn tensorrt        
1.6 安装MiniConda        

1.1 烧录镜像,制作启动卡
准备一张Micro SD卡,进行格式化。推荐使用64G及以上。这里以32GSD卡作为演示。
image.jpg
单击Format
image.jpg
选择是(Y
image.jpg
打开balenaEtcher烧录工具。
image.jpg
选择从文件烧录
image.jpg
选择下载好的jetpack6.2版本的压缩包jp62-orin-nano-sd-card-image.zip,点击确定
image.jpg
选定目标磁盘,选择SD
image.jpg
单击现在烧录!开始烧录镜像
image.jpg
烧录完成,制卡成功!
image.jpg
1.2 启动以及配置系统环境
将刻录好的MicroSD卡插入 Jetson Orin Nano侧面的插槽。
image.jpg
准备一根DPHDMI的转接线,连接显示屏
image.jpg
接上显示器,连接电源线,键盘,鼠标。
Jetson Orin Nano会自动启动,并显示界面
image.jpg
等待启动完成
image.jpg
配置系统界面
image.jpg

勾选接受,继续。
image.jpg
选择语言
image.jpg
选择键盘布局
image.jpg
连接WIFI或者手机热点
image.jpg
选择时区
image.jpg
配置用户名,设备名和用户密码
image.jpg
使用最大值Maximum accept size作为整个分区大小。
image.jpg
安装CHromium Browser
image.jpg
如果失败就点击close跳过
等待配置完毕,系统会重启
image.jpg
重新进入登录页面
image.jpg
点击用户名,输入密码登录
image.jpg
进行界面初始化
跳过,右上角next
image.jpg
右上角next,跳过imporve
image.jpg
隐私不选,next
image.jpg
Done
image.jpg

右下角双击Terminal打开终端
image.jpg
image.jpg
1.3 连接MobaXterm以及安装工具链(可选)
终端输入ifconfig查看ip地址
image.jpg
image.jpg
打开MobaxTerm,连接Jetson orin nano
image.jpg
点击好的或者ok,选择是
image.jpg
输入密码
image.jpg
进入界面
image.jpg
1.4安装jtop工具
jtop 是一个 实时监控工具,在jtop的界面中,可以看到每个CPU核心的使用率,GPU的显存使用情况,以及内存的使用情况等。此外,jtop还提供了关于CUDAcuDNNOpenCV等相关工具的版本信息。Jtop是一个重要的工具,在之后在运行程序的过程中,通过jtop可以了解到设备的资源使用情况,从而了解到模型的推理速度。
Jtop安装步骤如下:
sudo apt update                       
sudo apt install python3-pip         
sudo -H pip3 install -U pip               
sudo -H pip3 install -U jetson-stats                                    
image.jpg
网络不好可以换源下载,例如:
sudo -H pip3 install -U pip -i https://pypi.tuna.tsinghua.edu.cn/simple
sudo -H pip3 install -U jetson-stats -i https://pypi.tuna.tsinghua.edu.cn/simple

下载完成后需要reboot重启,运行jtop
reboot
jtop
file:///C:/Users/VLKUS_Li/AppData/Local/Temp/ksohtml35440/wps56.jpg
image.jpg
按键盘q键即可退出
jtop工具的介绍
最下方一行页面可以切换显示,ALL界面显示全部信息
Model:是设备的型号和版本
MEM包括内存、已使用内存、空闲内存、缓冲区内存、共享内存、缓存内存
FAN:表示风扇转速的百分比
Swp:交换分区的总大小、已使用大小、剩余大小
Jetson Clocks:表示Jetson处理器的时钟状态,可以开启和关闭最大锁频状态
Emc:表示嵌入式存储控制器,管理片外存储器和片外存储器控制器之间的通信。
NV Power:NVIDIA的电源管理
Uptime:系统的运行时间
GPUGPU的使用率。
DSK:磁盘的详细信息
image.jpg

GPU界面显示GPU动态信息
image.jpg
CPU界面显示CPU动态信息
image.jpg
MEM显示内存动态信息
image.jpg

Ctrl界面可以控制性能模式,风扇速度
image.jpg

INFO查看Jetson上的一些软件库包版本信息
1.5 配置cuda cudnn tensorrt
在官方的镜像中,cudacudnnTensorRT均已安装,这里要安装PythonTensorRT模块即可。
打开~/.bashrc
sudo vim ~/.bashrc
image.jpg
在文本末尾添加
export CUDA_HOME=/usr/local/cuda  # 显式声明CUDA根目录
export PATH=$CUDA_HOME/bin:$PATH  # 确保优先级
export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH
export TENSORRT_DIR=/usr/src/tensorrt  
export PATH=$TENSORRT_DIR/bin:$PATH   
export LD_LIBRARY_PATH=$TENSORRT_DIR/lib:$LD_LIBRARY_PATH
export LIBRARY_PATH=$TENSORRT_DIR/lib:$LIBRARY_PATH  


image.jpg
使新的环境变量生效
source ~/.bashrc
使用命令验证
nvcc -V
image.jpg

复制cudnn的头文件和库文件到cuda目录下
sudo cp /usr/include/cudnn*.h /usr/local/cuda/include
sudo cp /usr/lib/aarch64-linux-gnu/libcudnn* /usr/local/cuda/lib64
image.jpg

1.6 安装MiniConda
从米联客论坛 https://www.uisrc.com/t-6245.html,下载Miniconda3-latest-Linux-aarch64.sh
Miniconda3-latest-Linux-aarch64.sh拷贝到板端/home/nano/Downloads文件夹下
image.jpg
打开一个终端,cd 到指定位置并给文件赋予权限
cd /home/nano/Downloads
chmod 777 ./*
sudo ./Miniconda3-latest-Linux-aarch64.sh -b -p /opt/miniconda3
source /opt/miniconda3/bin/activate
image.jpg


您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

精彩推荐
热门资讯
    网友晒图
      图文推荐
        
        • 微信公众平台

        • 扫描访问手机版