CalayZhou / MBNet

Improving Multispectral Pedestrian Detection by Addressing Modality Imbalance Problems (ECCV 2020)

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

关于CVC14的对比实验问题以及代码理解问题

XiangZhou1 opened this issue · comments

作者你好,我读了你的文章,对你的工作很感兴趣。我有两点问题想请教一下:

1.关于CVC14的对比实验问题
我看你的论文在进行cvc14评估时与AR-CNN模型进行了对比,但是我发现这个模型的github页面没有提供cvc14的预训练模型,也没有提供训练代码。不知道您是如何得到它的数据的?是直接引用ARCNN论文里面的数据么?还是经过训练测试后的数据?

2.关于代码 model_tea 的问题
我在您的代码里面看到 变量如:
model_tea
self.base_layers_tea,
self.illuminate_output_tea
weights_tea
weights_stu
这里的tea与stu的含义我没有理解,希望您能解答一下。 期待得到您的回复。

同学你好,感谢关注~CVC14数据集AR-CNN当时没有提供训练测试代码,所以就引用了AR-CNN论文里的数据,在我们论文中CVC14的预训练模型是基于KAIST上训练模型fine-tune的,训练测试代码也即开源的这份代码,与KAIST处理是一模一样的。另外关于model_tea,是在ALFNet中引入用来稳定训练结果的,可以参考Mean teachers(https://arxiv.org/abs/1703.01780)这篇文论文。

同学你好,感谢关注~CVC14数据集AR-CNN当时没有提供训练测试代码,所以就引用了AR-CNN论文里的数据,在我们论文中CVC14的预训练模型是基于KAIST上训练模型fine-tune的,训练测试代码也即开源的这份代码,与KAIST处理是一模一样的。另外关于model_tea,是在ALFNet中引入用来稳定训练结果的,可以参考Mean teachers(https://arxiv.org/abs/1703.01780)这篇文论文。

好的,非常感谢你的解答!