AI 代理 Wasm 插件对接 Ollama
CH3CHO opened this issue · comments
Kent Dong commented
Yifan Gao commented
@CH3CHO 您好,Ollama似乎只能在本地运行然后通过localhost调用API?我目前已开发并测试在本地部署模型的版本,但不太确定是不是只能本地运行,想和您确认一下
Kent Dong commented
@CH3CHO 您好,Ollama似乎只能在本地运行然后通过localhost调用API?我目前已开发并测试在本地部署模型的版本,但不太确定是不是只能本地运行,想和您确认一下
试试这个呢?ollama/ollama#1179