datawhalechina / self-llm

《开源大模型食用指南》基于Linux环境快速部署开源大模型,更适合**宝宝的部署教程

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

多卡报错,Qwen1.5-7B-Chat FastApi 部署调用

linzhonghong opened this issue · comments

hello,有2张卡报错了。
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:1 and cuda:0! (when checking argument for argument index in method wrapper_CUDA__index_select)
如果只设置一张(CUDA_VISIBLE_DEVICES=0),就报有cpu参与
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument index in method wrapper_CUDA__index_select)

请问您是在什么环境下使用本教程的呢?

可以尝试使用这个镜像:https://www.codewithgpu.com/i/datawhalechina/self-llm/self-llm-Qwen1.5

请问您是在什么环境下使用本教程的呢?

可以尝试使用这个镜像:https://www.codewithgpu.com/i/datawhalechina/self-llm/self-llm-Qwen1.5

不是在AutoDL上跑的,是不是可以理解为所有的教程只适合在AutoDL上跑呢?

请问您是在什么环境下使用本教程的呢?
可以尝试使用这个镜像:https://www.codewithgpu.com/i/datawhalechina/self-llm/self-llm-Qwen1.5

不是在AutoDL上跑的,是不是可以理解为所有的教程只适合在AutoDL上跑呢?

因为本教程是在AutoDL环境经过测试的,所以在autodl平台更容易复现教程中的操作。在自己的机器上,尤其是windows环境比较复杂,容易出现其他未知bug。