아래 단계를 완료한 후의 글이다.
- Jetson Download Center에서 해당되는 버전의 이미지를 다운받는다.
(Jeson Xavier NX Devloper Kit SD Card Image (Jetpack 5.0.2)를 사용했다.) - etcher나 rufus를 사용해 sd카드에 이미지를 쓰고 Jetson에 꽂고 부팅한다.
- 부팅이 되면 설치 및 설정을 완료한다.
1. jtop
Jetson 시스템을 모니터링 하기위해 설치하는 패키지이다.
1.1. 설치
# 처음엔 pip가 설치되어있지 않다.
$ sudo apt-get install pip
# jtop은 설치할때 패키지 이름이 다르다.
$ sudo -H pip install -U jetson-stats
$ sudo reboot
1.2. 실행
$ jtop






시스템 상태 조회, 설정 등을 간편하게 할 수 있다.
1.3. 재설치
Jetson Xavier NX는 인식이 잘 안되는거 같다…
→ https://github.com/rbonghi/jetson_stats/releases/tag/4.0.0rc2를 참고해보니 Jetpack 5.0이라서 안됐던 것 같았다.
Jetpack 5점대에 호환되는 jtop을 설치한다.
# 원래 설치했던 jtop 삭제
$ sudo -H pip uninstall jetson-stats
# Jetpack 5점대에 호환되는 jtop 설치
$ sudo -H pip install jetson-stats==4.0.0rc2

정상적으로 인식 및 작동이 되는 것을 볼 수 있다.
2. PyTorch, Torchvision
2.1. 의존성 패키지 설치
설치하기 전 의존성 패키지를 설치한다.
$ sudo apt-get install python3-pip libopenblas-base libopenmpi-dev libjpeg-dev zlib1g-dev
$ pip install Cython numpy
2.2. PyTorch 설치
- 자신의 Python, Jetpack 버전에 호환되고 원하는 torch 버전의 whl을 다운받는다.

- whl을 사용하여 설치한다.
# pip install <다운받은 whl파일> $ pip install torch-1.12.0a0+2c916ef.nv22.3-cp38-cp38-linux_aarch64.whl
2.3. Torchvision 설치
- PyTorch와 맞는 버전을 https://github.com/pytorch/vision에서 확인한다.

- 해당 버전에 맞는 브랜치를 클론한다.
# git clone --branch <브랜치명> https://github.com/pytorch/vision $ git clone --branch release/0.13 https://github.com/pytorch/vision
- 클론 후 설치한다.만약, 아래와 같이 affine_quantizer.h라는 헤더파일이 없다면qnms_kernel.cpp에서 해당 헤더파일을 include하는 줄을 삭제한 후 다시 install 한다.
$ vi <클론한디렉토리>/torchvision/csrc/ops/quantized/cpu/qnms_kernel.cpp > #include <ATen/ATen.h> > #include <ATen/native/quantized/affine_quantizer.h> // 해당 줄 삭제 > #include <torch/library.h> # 재설치 $ sudo python setup.py install
$SRC_DIR/torchvision/csrc/ops/quantized/cpu/qnms_kernel.cpp:2:10: fatal error: ATen/native/quantized/affine_quantizer.h: No such file or directory 2 | #include <ATen/native/quantized/affine_quantizer.h> | ^~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
$ cd vision $ sudo python setup.py install
2.4. GPU 사용 확인
$ python
>>> import torch
>>> torch.cuda.is_available()
True