ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

qwen输出结果错误

Liufeiran123 opened this issue · comments

使用benchmark程序,测试qwen 1.8b chat模型,输出结果全是!,结果完全错误。
!!!!!!!!!!!!!!!!!!!!!!!!!!!

请问,这个问题是如何解决的呢?