Tencent / TurboTransformers

a fast and user-friendly runtime for transformer inference (Bert, Albert, GPT2, Decoders, etc) on CPU and GPU.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

unitest失败

ArtyZe opened this issue · comments

首先感谢开源如此优秀的代码,
目前安装了cpu版本,在进行单元测试时,在第31个报错,如下:
image
image
麻烦帮忙看下

你改小一下diff的tolerance试试,有的处理器的数值精度可能不同。

你改小一下diff的tolerance试试,有的处理器的数值精度可能不同。

好的,感谢,然后麻烦问下后续有支持nn.MultiheadAttention模块的计划吗

具体什么支持呢?已经有一个multihead-attn的算子了。

unitest问题已经解决了,这个issue先close了。