P102 linux环境安装cuda

nvidia

查看内核版本

1
uname -r

安装显卡驱动

1
2
3
4
#模块
sudo pacman -S linux612-nvidia
#用户空间工具
sudo pacman -S nvidia-utils

如果之前有安装过 或者有残留

1
2
3
4
5
# 先卸载之前的驱动
sudo mhwd -r pci video-nvidia

#如果是run文件则
sudo bash ./xxx.run --uninstall

cuda和cudnn

提前修改一下 默认编译的核心 不然太卡了

安装GCC12
yay -S gcc12

下载地址
http://bigpan.eu.org:5244/%E7%A7%BB%E5%8A%A8%E4%BA%91%E7%9B%98/%E5%AE%9E%E7%94%A8%E8%BD%AF%E4%BB%B6/P102-100/Linux

无法安装则使用–overwrite=”*”

1
2
3
4
#安装CUDA
sudo pacman -U cuda-12.1.1-4-x86_64.pkg.tar.zst
#安装cudnn
sudo pacman -U cudnn-8.6.0.163-1-x86_64.pkg.tar.zst

sudo ln -s /opt/cuda /usr/local/cuda

查看cuda和cudnn版本

1
pacman -Q cuda cudnn

tensorRT

解压 移动到opt目录

sudo gedit ~/.bashrc

1
2
3
4
5
export PATH=/opt/cuda/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/opt/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

export PATH=$PATH:/opt/TensorRT-8.6.1.6/bin
export LD_LIBRARY_PATH=/opt/TensorRT-8.6.1.6/lib:$LD_LIBRARY_PATH

source ~/.bashrc

tensorRT的库和头文件复制到系统路径配置

进入tensorrt目录

1
2
sudo cp -r ./lib/* /usr/lib
sudo cp -r ./include/* /usr/include

测试tensorRT运行

1
2
3
4
5
6
7
8
#进入这个文件目录下
cd samples/sampleOnnxMNIST

#进行编译命令
sudo make -j16

#运行bin目录下
**.**/sample\_onnx\_mnist

TensorRT 尝试加载动态库 libnvinfer_builder_resource.so.8.6.1 失败

1
2
3
4
5
sudo pacman -S execstack

sudo execstack -c /opt/TensorRT-8.6.1.6/lib/libnvinfer_builder_resource.so.8.6.1

sudo execstack -c /usr/lib/libnvinfer_builder_resource.so.8.6.1

python配置TensorRT

cd /opt/TensorRT-8.6.1.6/python/

进入conda的环境后安装

python install tensorrt-8.6.1-cp311-none-linux_x86_64.whl

验证
python -c "import tensorrt as trt; print(trt.__version__)"