Media-Smart / cheetahinfer

A C++ inference SDK based on TensorRT

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

相同的模型在cheetahinfer和flexinfer下输出不一样

ischihmo opened this issue · comments

您好!
我使用volksdep转换pytorch->onnx到float32精度的trt模型,分别使用您提供的python接口和c++接口推理,在确认对模型输入数据相同的情况下,python接口和c++的输出略有不同,其中python接口的输出和pytorch模型的输出完全一致。
python:
'hm': -4.7435, -4.9425, -5.0953...
'wh': 2.9964, 6.2605, 9.4454...
'reg':0.3520, 0.4671, 0.4568...

c++:
f32hm[0]: -4.79173 f32hm[1]: -4.93249 f32hm[2]: -5.12284
f32wh[0]: 3.20822 f32wh[1]: 6.29681 f32wh[2]: 9.39095
f32reg[0]: 0.346569 f32reg[1]: 0.466546 f32reg[2]: 0.455642

不知道您是否遇到过类似情况?可否给我一些建议?
十分感谢!

我的环境是
CUDA 10.2.89
TensorRT 7.1.3
cuDNN 8.0.0.180
python 3.6.9
硬件是jetson nano 系统JP4.4