请问circle_loss.py中最后要用softplus操作?
CloudHerods opened this issue · comments
CloudHerods commented
你好,感谢你的实现,请教一个问题:
loss = self.soft_plus(torch.logsumexp(logit_n, dim=0) + torch.logsumexp(logit_p, dim=0)),
这里直接用括号里的作为损失函数不可以吗?
TinyZeaMays commented
你好,
softplus可以视作平滑的relu,实际上当
torch.logsumexp(logit_n, dim=0) + torch.logsumexp(logit_p, dim=0)
高于阈值时是当作线性函数处理的,
关于理论原理,论文中有比较详细的推导说明,也可以关注知乎上作者的解读
CloudHerods commented
非常感谢您的回复,我也是提问后想明白的。再次感谢
…------------------ 原始邮件 ------------------
发件人: "TinyZeaMays"<notifications@github.com>;
发送时间: 2020年4月13日(星期一) 晚上7:17
收件人: "TinyZeaMays/CircleLoss"<CircleLoss@noreply.github.com>;
抄送: "Hardy'"<632199986@qq.com>;"Author"<author@noreply.github.com>;
主题: Re: [TinyZeaMays/CircleLoss] 请问circle_loss.py中最后要用softplus操作? (#10)
你好,
softplus可以视作平滑的relu,实际上当
torch.logsumexp(logit_n, dim=0) + torch.logsumexp(logit_p, dim=0)
高于阈值时是当作线性函数处理的,
关于理论原理,论文中有比较详细的推导说明,也可以关注知乎上作者的解读
—
You are receiving this because you authored the thread.
Reply to this email directly, view it on GitHub, or unsubscribe.