保姆级教程在Win10上用VS2022搞定TensorRT 8.5.2.2从环境变量到跑通MNIST样例如果你正在Windows 10上尝试部署TensorRT 8.5.2.2却苦于各种环境配置问题和莫名其妙的报错这篇文章就是为你准备的。不同于网上那些理论上可行的教程我们将从实际开发者的角度出发带你一步步避开所有可能的坑最终在VS2022中成功运行MNIST样例。无论你是刚接触TensorRT的新手还是被环境问题困扰的老手这篇指南都能让你少走弯路。1. 环境准备搭建TensorRT的基础舞台在开始之前请确保你的系统满足以下基本要求操作系统Windows 10 64位建议版本1903或更高显卡驱动NVIDIA驱动版本≥522.06支持CUDA 11.8开发工具Visual Studio 2022社区版即可Python环境Anaconda3 with Python 3.8提示强烈建议使用Anaconda管理Python环境可以避免很多依赖冲突问题。1.1 CUDA和cuDNN的安装TensorRT需要CUDA和cuDNN的支持以下是具体版本要求组件推荐版本下载来源CUDA11.8NVIDIA开发者网站cuDNN8.6.0NVIDIA开发者网站需注册安装步骤下载CUDA 11.8安装包运行安装程序选择自定义安装确保勾选以下组件CUDAVisual Studio IntegrationNVIDIA GeForce Experience可选安装完成后验证CUDA是否安装成功nvcc --version解压cuDNN 8.6.0压缩包将以下文件复制到CUDA安装目录bin\cudnn64_8.dll→CUDA\v11.8\bininclude\cudnn.h→CUDA\v11.8\includelib\cudnn.lib→CUDA\v11.8\lib\x642. TensorRT 8.5.2.2的安装与配置2.1 下载与解压从NVIDIA官网下载TensorRT 8.5.2.2 for Windows 10对应CUDA 11.8版本。解压后你会看到如下目录结构TensorRT-8.5.2.2/ ├── bin/ # 可执行文件 ├── data/ # 样例数据 ├── doc/ # 文档 ├── graphsurgeon/ # GraphSurgeon工具 ├── include/ # 头文件 ├── lib/ # 库文件 ├── python/ # Python绑定 ├── samples/ # 样例代码 └── uff/ # UFF工具2.2 环境变量配置这是最容易出错的部分请仔细操作将TensorRT的lib目录添加到系统PATH环境变量D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib复制必要的DLL文件到CUDA目录将TensorRT-8.5.2.2\lib下的所有.dll文件复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin将TensorRT-8.5.2.2\lib下的所有.lib文件复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x642.3 Python绑定安装如果你计划使用Python接口需要安装TensorRT的Python包cd TensorRT-8.5.2.2/python pip install tensorrt-8.5.2.2-cp38-none-win_amd64.whl验证安装是否成功import tensorrt as trt print(trt.__version__) # 应该输出8.5.2.23. VS2022项目配置详解3.1 准备MNIST样例项目使用VS2022打开样例项目TensorRT-8.5.2.2\samples\sampleOnnxMNIST\sample_onnx_mnist.sln配置项目属性以x64 Debug为例包含目录$(CUDA_PATH)\include D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\include库目录$(CUDA_PATH)\lib\x64 D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib附加依赖项nvinfer.lib nvinfer_plugin.lib nvonnxparser.lib nvparsers.lib cudnn.lib cublas.lib cudart.lib3.2 解决常见编译问题问题1zlibwapi.dll缺失解决方法从官网下载ZLIB DLL库将zlibwapi.dll复制到C:\Windows\System32 或 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin将zlibwapi.lib复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64问题2程序运行后立即退出在main()函数末尾添加getchar(); // 等待用户输入防止控制台窗口立即关闭4. 运行MNIST样例与验证4.1 构建与运行在VS2022中构建解决方案Build Solution成功构建后可执行文件将生成在TensorRT-8.5.2.2\bin\sample_onnx_mnist.exe双击运行或在命令行中执行cd TensorRT-8.5.2.2\bin sample_onnx_mnist.exe4.2 验证输出成功运行时你应该能看到类似以下输出[I] Building and running a GPU inference engine for MNIST [I] Input: 0, Output: 0, Probability: 0.9999 [I] Input: 1, Output: 1, Probability: 0.9998 ... [I] All tests passed successfully!4.3 懒加载环境变量配置如果你遇到类似Could not load library的错误可能需要配置以下环境变量SET TRT_LOAD_ALL_PLUGINS1 SET TRT_PLUGIN_DEBUG1这些变量可以强制TensorRT加载所有插件并输出调试信息帮助诊断问题。