THUDM / GLM-130B

GLM-130B: An Open Bilingual Pre-Trained Model (ICLR 2023)

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

模型并行集群怎么搭建

ChenBinfighting1 opened this issue · comments

看大家都已经在跑130b的模型,想咨询一下,计算资源是本地搭建的GPU集群吗?这个该如何搭建啊?