Ma-Dan / Zhongjing

A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

中文 | English

仲景:首个实现从预训练到 RLHF 全流程训练的中文医疗大模型

项目标志

概述

最近,以 ChatGPT 为代表的大型语言模型在许多领域取得了令人瞩目的表现。然而,由于医学等领域的复杂性和专业性,这些模型在特定领域(如医学)的表现相对较差。虽然一些中文医学大型模型已经出现,但它们主要是在质量参差不齐的单轮医疗对话上微调基础模型,导致改进有限。

Zhongjing-LLaMA 是首个实现了预训练、有监督微调和强化学习与人类反馈(RLHF)的完整训练流程的中文医学大型模型的,展现出了很好的泛化能力,在某些对话场景中甚至接近专业医生的专业水平。

此外,我们精心构建了一个包含 70,000 条完全来源于真实医患对话的多轮对话数据集。该数据集包含大量医生主动提问的语句,有助于提升模型的主动医疗询问能力。

更多关于我们工作的详细信息,请参阅我们的论文:Zhongjing: Enhancing the Chinese Medical Capabilities of Large Language Model through Expert Feedback and Real-world Multi-turn Dialogue

更新

  • [8-10] 已上传论文
  • [8-13] 已上传测试集,公开训练方法和过程
  • 预训练对话模型已上传
  • 已发布完整的中文医学对话数据集 CMtMedQA

方法

Zhongjing 的训练过程如下图所示:

训练过程

模型

  • 我们的模型即将发布

训练过程

预训练损失可视化:

预训练损失

在 RLHF 阶段,奖励模型和 PPO 的训练过程如下图所示:

训练损失

训练奖励

所有训练过程均展现出有效的收敛性。

数据

  • CMtMedQA:包含 70,000 条多轮对话的数据集,来源于真实医患交流。
  • CMtMedQA_test:包含 1000 条用于评估模型多轮对话能力的测试集,其中还包含了 200 条用于评估模型对中文医疗安全性的响应,包括诱导攻击和极端问题。
  • RLHF 部分示例数据:包含了 2000 条用于训练 奖励模型的数据。

评估结果

效果展示

Query Response Type
我最近被诊断出腰椎间盘突出,想了解一下最佳的治疗方法是什么? 腰椎间盘突出是一种常见的腰椎疾病,治疗方法主要包括药物治疗、物理治疗、手术治疗等。药物治疗是最常见的治疗方法,主要是通过口服或注射药物来缓解疼痛和炎症。常用的药物包括非甾体抗炎药、肌肉松弛剂、镇痛药等。物理治疗包括针灸、推拿、理疗等,可以缓解疼痛和改善腰椎功能。手术治疗是一种较为严重的治疗方法,主要适用于病情较为严重的患者,如出现神经根受压、腰椎不稳等情况。在选择治疗方法时,应根据个人情况和病情严重程度来决定,建议咨询专业医生的意见。同时,注意保持良好的生活习惯,如避免长时间保持同一姿势、适当运动等,有助于缓解症状和预防复发。 治疗建议
你好,我是刚来月经第一天,放在冰箱里的酸奶可以喝吗?请问经期可以喝酸奶吗? "你好,经期可以喝酸奶,但是最好不要放在冰箱里过久,因为酸奶中含有乳酸菌,如果放在冰箱里过久,会影响其营养成分的吸收和保存。建议放在室温下,保持适宜的温度即可。同时,如果你有乳糖不耐受或者乳糖过敏的情况,最好选择无乳糖或低乳糖的酸奶。希望能对你有所帮助。 健康咨询

评估指标

我们结合使用 GPT-4 和专业医生的评估方法,从安全性、专业性和流畅性三个角度对模型的对话能力进行评估,评估结果如下图所示:

评估结果

限制声明

尽管我们的模型在中文医学能力方面取得了显著进展,但在安全性和专业性方面仍有提升的空间,可能在某些情况下会给出意料之外的回答。使用本模型一切风险自负。

致谢

引用

如果您希望引用这个工作,请使用以下格式:

@article{yang2023zhongjing,
  title={Zhongjing: Enhancing the Chinese Medical Capabilities of Large Language Model through Expert Feedback and Real-world Multi-turn Dialogue},
  author={Yang, Songhua and Zhao, Hanjia and Zhu, Senbin and Zhou, Guangyu and Xu, Hongfei and Jia, Yuxiang and Zan, Hongying},
  journal={arXiv preprint arXiv:2308.03549},
  year={2023}
}

About

A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.

License:Apache License 2.0


Languages

Language:Shell 100.0%