Firefly开源社区

打印 上一主题 下一主题

【技术案例】通过 NVIDIA TensorRT 实现实时快速的语义分割

1276

积分

14

威望

18

贡献

管理员

Rank: 9Rank: 9Rank: 9

积分
1276

【技术案例】通过 NVIDIA TensorRT 实现实时快速的语义分割

发表于 2025-7-29 17:31:17      浏览:880 | 回复:0        打印      只看该作者   [复制链接] 楼主
NVIDIA 系列 AIBOX
AIBOX-OrinNano 和 AIBOX-OrinNX 均搭载 NVIDIA 原装 Jetson Orin 核心板模组,标配工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅设计,高效散热,保障在高温运行状态下的运算性能和稳定性,满足各种工业级的应用需求。



NVIDIA TensorRT

NVIDIA 系列 AIBOX 支持深度学习框架 TensorRT,TensorRT 是用于高性能深度学习推理的 API 生态系统,其包括推理运行时和模型优化,可为生产应用提供低延迟和高吞吐量。
TensorRT 生态系统包括 TensorRT、TensorRT-LLM、TensorRT 模型优化器和 TensorRT Cloud。

优势:
1. 推理速度提升 36 倍
2. 优化推理性能
3. 加速各种工作负载
4. 使用 Triton 进行部署、运行和扩展



应用案例—语义分割
语义分割基于图像识别,但分类是在像素级别进行的,而不是在整个图像上进行。这是通过将预训练的图像识别骨干网络进行卷积化来实现的,将模型转换为能够进行逐像素标注的全卷积网络(FCN)。语义分割对于环境感知特别有用,它能够对每个场景中的许多不同潜在对象(包括前景和背景)进行密集的逐像素分类。



SegNet 模型
SegNet 的新颖之处在于解码器对其较低分辨率的输入特征图进行上采样的方式。具体地说,解码器使用了在相应编码器的最大池化步骤中计算的池化索引来执行非线性上采样。经上采样后的特征图是稀疏的,因此随后使用可训练的卷积核进行卷积操作,生成密集的特征图。SegNet 的架构与广泛采用的 FCN 以及众所周知的 DeepLab-LargeFOV,DeconvNet 架构进行比较。比较的结果揭示了在实现良好的分割性能时所涉及的内存与精度之间的权衡。




下载源码
$ git clone --recursive --depth=1 https://github.com/dusty-nv/jetson-inference



编译/安装
参考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md


运行示例:


———————————————

商务合作:sales@t-firefly.com
技术支持:service@t-firefly.com
Firefly官网:www.t-firefly.com
开源社区:dev.t-firefly.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2014-2022 中山市天启智能科技有限公司 粤ICP备14022046号
快速回复 返回顶部 返回列表