社区
白老师的课程社区_NO_9
YOLOv8实例分割实战:ONNX模型转换及TensorRT部署
帖子详情
编译TensorRT加速的yolov8-ubuntu
bai666ai
2024-03-03 13:15:05
课时名称
课时知识点
编译TensorRT加速的yolov8-ubuntu
实践篇(Windows和Ubuntu系统上的ONNX模型转换及TensorRT加速部署流程演示)
...全文
65
回复
打赏
收藏
编译TensorRT加速的yolov8-ubuntu
课时名称课时知识点编译TensorRT加速的yolov8-ubuntu实践篇(Windows和Ubuntu系统上的ONNX模型转换及TensorRT加速部署流程演示)
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
Tensor
RT
-7.0.0.11.
Ubuntu
-16.04.x86_64-gnu.cuda-10.2.cudnn7.6
Tensor
RT
-7.0.0.11.
Ubuntu
-16.04.x86_64-gnu.cuda-10.2.cudnn7.6.tar.gz 下载
YOLO
v8
Tensor
RT
C++ 实现.zip
Yolo
V8
Tensor
RT
CPP使用
Tensor
RT
的
Yolo
V8
的 C++ 实现支持对象检测、语义分割和身体姿势估计。 寻找维护者该项目正在积极寻找维护者来帮助指导其发展和改进。如果您对这个项目充满热情并有兴趣做出贡献,我很乐意听到您的声音!请随时通过LinkedIn联系我们,讨论如何参与。入门该项目演示了如何使用
Tensor
RT
C++ API 为
Yolo
V8
运行 GPU 推理。它利用我的另一个项目
tensor
rt
-cpp-api在后台运行推理,因此请确保您熟悉该项目。先决条件已在
Ubuntu
20.04 和 22.04 上测试并运行(目前不支持 Windows)安装 CUDA,说明在这里。建议>=12.0安装 cudnn,说明在这里。推荐>=8sudo apt install build-essentialsudo apt install python3-pippip3 install cmake安装支持 cuda 的 OpenCV。要从源代码
编译
OpenCV,请运行此处build_ope
ubuntu
20.04使用C++与
Tensor
RT
8.2对
yolo
v8
分类模型进行推理预测、适配多batch推理(源码)
ubuntu
20.04使用C++与
Tensor
RT
8.2对
yolo
v8
分类模型进行推理预测、适配多batch推理(源码)
基于
tensor
rt
v8
.0+,使用C++和python api部署
YOLO
v8
的检测、姿势、分割、跟踪 .zip
Tensor
RT
部署
YOLO
v8
目标检测、关键点检测、实例分割、目标跟踪一.项目简介以此为基础
Tensor
RT
-
v8
,部署
YOLO
v8
目标检测、关键点检测、实例分割、目标跟踪支持嵌入式设备Jetson系列上部署,也可以在的Linux x86_64服务器上部署本项目消耗了
编译
安装支持cuda的OpenCV,前后处理相关的张量操作都是作者通过cudaSmashing实现模型转换方式.pth-> .onnx-> .plan(.engine)作者使用Python和C++2种api分别实现了均采用了面向对象的方式,结合到其他项目的贸易C++版本还将
编译
为动态链接库,并且在其他项目种作为接口调用二.项目效果原文 目标检测 关键点检测 实例 ByteTrack目标跟踪三. 推理速度 探测 姿势 部分C++ 4 毫秒 5 毫秒 8 毫秒Python 15 毫秒 15 毫秒 58 毫秒这里的推理时间包括前处理、模型推理、后处理这里基于x86_64 Linux 服务器,
Ubuntu
系统,显卡为GeForce
RT
X 2080 Ti四.环境配置基
使用C++和Python API在
Tensor
RT
v8
.0+上部署
YOLO
v8
的检测、姿态、分割与跟踪
Tensor
RT
部署
YOLO
v8
目标检测、关键点检测、实例分割、目标跟踪。项目支持在Jetson系列嵌入式设备和Linux x86_64服务器上部署。项目使用CUDA
编译
安装OpenCV,前后处理通过CUDA实现。模型转换流程为.pth->.onnx->.plan(.engine)。采用Python和C++两种API实现,均采用面向对象方式,C++版本
编译
为动态链接库供其他项目调用。项目效果包括目标检测、关键点检测、实例分割和ByteTrack目标跟踪。推理速度:C++分别为4毫秒、5毫秒、8毫秒,Python分别为15毫秒、15毫秒、58毫秒。推理时间包括前处理、模型推理和后处理。测试环境为x86_64 Linux服务器,
Ubuntu
系统,显卡为GeForce
RT
X 2080 Ti。内容来源于网络分享,如有侵权请联系我删除。
白老师的课程社区_NO_9
2
社区成员
203
社区内容
发帖
与我相关
我的任务
白老师的课程社区_NO_9
教授、博士生导师、人工智能技术专家
复制链接
扫一扫
分享
社区描述
教授、博士生导师、人工智能技术专家
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章