lyogavin / Anima

33B Chinese LLM, DPO QLORA, 100K context, AirLLM 70B inference with single 4GB GPU

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

通过Ollama下载了的模型,如何在airllm中直接使用呢

w1005444804 opened this issue · comments

期待。。。。
微信图片_20240421155240