ztxz16/fastllm Issues
make -j过程中报错
Updated 3Meta-Llama-3-70B-Instruct
Updated 4请问什么时候支持GLM-4 ?
Closed 4GLM-4-6B-Chat转换成flm格式后不能加载
Closed 5请问现在支持deepseekv2量化吗
Closed 1H800 docker 编译, half类型转换 编译报错
Closed 1结果返回一直是<unk>
Updated 1chatglm3 相同提示词生成结果一致
Updated中文输入无法识别;webui打开的地址无法访问。
Closed 1千问qwen1.5-14B-chat解码错误
Updated 2cmake -j报错
Updated 2无法安装fastllm_pytools
Updated 1流式输出中断问题
Updated模型转换的时候是不是不能用量化过的模型
Updated 1是否支持qwen1.5的滑动窗口的方式
UpdatedResponseBatch 返回结果不正确
Updated 5BAICHUAN2没有MakeInput的实现
Closed 7qwen输出结果错误
Closed 1如何贡献代码 ?
Closed后续能否支持ChatGLM3的多轮
Updated 2转化模型格式(.bin->.flm)时
Updated 2大佬 想问下 利用率只跑到60% 是什么情况?
Updated 2当输出数据特别长的时候报错。
Closed 2报告一个chatGLM3 function_call的bugs
Closed 1在macos intel平台上使用报错
Closed 3运行几个c++示例程序都直接报段错误
Updated 1chatglm3-6b-32k使用fastllm加速后无法推理
Updated 2建议对python调用的model增加model.device 接口
Updated 1flm的tokenizer和原始tokenizer分词结果不一致
Updated 1Windows下Pyfastllm不能正常import
Closed 1benchmark 测试的时候会卡住,如何解决呢?
Updated 1