点击下方卡片,关注“机器视觉与AI深度学习”
视觉/图像重磅干货,第一时间送达!
YOLOv11 C++ TensorRT 项目是一个用 C++ 实现并使用 NVIDIA TensorRT 进行优化的高性能对象检测解决方案。该项目利用 YOLOv11 模型提供快速准确的对象检测,并利用 TensorRT 最大限度地提高推理效率和性能。
https://github.com/hamdiboukamcha/Yolo-V11-cpp-TensorRT
模型转换:将 ONNX 模型转换为 TensorRT 引擎文件以加速推理。 视频推理:有效地对视频文件进行对象检测。 图像推理:对单个图像执行对象检测。 高效率:针对使用 NVIDIA GPU 的实时物体检测进行了优化。 使用 CUDA 进行预处理:支持 CUDA 的预处理可实现更快的输入处理。
YOLOv11-TensorRT/
├── CMakeLists.txt # Build configuration for the project
├── include/ # Header files
├── src/
│ ├── main.cpp # Main entry point for the application
│ ├── yolov11.cpp # YOLOv11 implementation
│ └── preprocess.cu # CUDA preprocessing code
├── assets/ # Images and benchmarks for README
└── build/ # Compiled binaries
CMake(版本 3.18 或更高版本) TensorRT(V8.6.1.6:用于使用 YOLOv11 进行优化推理。) CUDA 工具包(V11.7:用于 GPU 加速) OpenCV(V4.10.0:用于图像和视频处理) NVIDIA GPU(计算能力 7.5 或更高)
安装配置
git clone https://github.com/hamdiboukamcha/Yolo-V11-cpp-TensorRT.git
cd YOLOv11-TensorRT
set(TENSORRT_PATH "F:/Program Files/TensorRT-8.6.1.6") # Adjust this to your path
3. 构建项目
mkdir build
cd build
cmake ..
make -j$(nproc)
from ultralytics import YOLO
Load the YOLO model
model = YOLO("yolo11s.pt")
#Export the model to ONNX format
export_path = model.export(format="onnx")
./YOLOv11TRT convert path_to_your_model.onnx path_to_your_engine.engine.
./YOLOv11TRT infer_video path_to_your_video.mp4 path_to_your_engine.engine
./YOLOv11TRT infer_image path_to_your_image.jpg path_to_your_engine.engine
#Define the path to TensorRT installation
set(TENSORRT_PATH "F:/Program Files/TensorRT-8.6.1.6") # Update this to the actual path for TensorRT