首页
帮助
搜索
日历
登录
注册
TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
GPU世界论坛
深度学习
TensorRT开发者指南
TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
« 上一篇主题
下一篇主题 »
打印
页: [
1
]
TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
2 replies
5834 views
cuda_world_perfect
2
TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
«
于:
十一月 08, 2019, 01:08:09 pm »
对于tdnn这种结构,需要通过自顶向下计算每层需要输入的index,也就是batchSize变化会导致输出数据的维度发生变化,该如何处理。
已记录
sisiy
246
Re: TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
«
回复 #1 于:
十一月 08, 2019, 01:41:34 pm »
TensoRT最新版本可不可以,我还得查一下然后回复你,之前版本是肯定不行。
TRT能不能转换一个网络,要按op为单位去看能不能,经常有人问:”我的xx网络就在xx网络上改了一点点,能不能用?”这种根本不知道
他可以固定batchsize黑上,能就能,不能就不能,或者万能办法,自己写plugin,啥都能做
已记录
cuda_world_perfect
2
Re: TensorRT 如何处理batch size不同会导致各层输出dim变化的问题
«
回复 #2 于:
十一月 08, 2019, 01:58:51 pm »
我目前是在开发一个Splice的Plugin。似乎只能通过dynamic shapes 来写。
已记录
打印
页: [
1
]
« 上一篇主题
下一篇主题 »
登录
注册
Remember me?
忘了您的密码吗?
新帖
请教一个关于abs求值的问题
作者
ljyoicqn
(
OpenCL
)
opencl中的命令队列CommandQueue
作者
sean.jiao
(
OpenCL
)
bts run
作者
Abigailvioms
(
CUDA
)
CUDA启动很多不参与计算的线程会怎样
作者
2017012835
(
CUDA
)
Re: cuda-gdb 显示的错误信息
作者
2017012835
(
CUDA
)
Popular Topics
运行我的程序时,英伟达板卡Jetson TX2比Jetson Tx1速度更慢可能是什么原因??求解答
67129 views 4 replies
《如何用NVIDIA Nsight调试GPU程序》在线培训
55898 views 25 replies
PGI 宣布发布免费版PGI Community Edition 版本
42529 views 0 replies
float类型数据计算问题
41458 views 11 replies
怎么让线程互斥修改常量存储的值
40237 views 6 replies
【转载】我在深度学习上用GPU的经验
38304 views 3 replies