li-plus / chatglm.cpp

C++ implementation of ChatGLM-6B & ChatGLM2-6B & ChatGLM3 & GLM4

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

什么时候支持amd的gpu

youcanyouupsb opened this issue · comments

如何支持amd硬件

同问,或者说能将chatglm.cpp合并到llama.cpp就好了,挺希望能在AMD上跑的。

我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的

llama.cpp 支持 AMD上跑的,llama.cpp我跑AMD ok , 期待chatglm.cpp!!!!

我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的

要不先把 ggml 升级到最新版本? 我看最新版本里面支持 hip 了,现在的版本里面好像代码里面有define,但是 cmake file 都没更新。