一个LLM调用平台。旨在通过使用为小模型外挂知识库查找的方式,实现近似于大模型的生成能力。
- 目前支持模型:
chatGLM-6B
、chatRWKV
、chatYuan
。 - 知识库自动查找
- 支持参数在线调整
- 支持
chatGLM-6B
、chatRWKV
流式输出和输出过程中中断 - 自动保存对话历史至浏览器(多用户同时使用不会冲突)
- 对话历史管理(删除单条、清空)
- 支持局域网、内网部署和多用户同时使用。(内网部署需手动将前端静态资源切换成本地)
- 多用户同时使用中会自动排队,并显示当前用户。
欢迎同学们制作教学视频、懒人包等,做好请和我联系,我会把相关链接加到readme里
交流QQ群:162451840
链接:https://pan.baidu.com/s/105nOsldGt5mEPoT2np1ZoA?pwd=lyqz
提取码:lyqz
默认参数在GTX1660Ti(6G显存)上运行良好。
- 旧版包含程序主体和chatGLM-6B、chatYuan,分别是独立的压缩文件。
- chatRWKV模型更新频繁,请去官方链接下最新的。暂不支持chatPDF功能,很快就加上。
- 新版暂时只有chatGLM-6B,但重新制作,体积更新,包含各种优化,集成知识库功能,推荐使用。
知识库索引模式:pip install -r requirements-sy.txt
知识库语义模式:pip install -r requirements-yy.txt
根据需要,下载对应模型。
建议使用chatRWKV的RWKV-4-Raven-7B-v7-ChnEng-20230404-ctx2048(截止4月6日效果较好),或chatGLM-6B。
根据settings.bat
中说明,填写你的模型下载位置等信息
将txt格式的语料放到txt文件夹中,运行run_data_processing.bat
。
知识库最终效果是生成一些提示信息,会插入到对话里面。
s模式、x模式首先要把txt目录下的文件喂给一个类似搜索引擎的东西,然后在对话过程中去查询这个搜索引擎获得提示信息;bing模式、bingxs模式则直进行搜索获取答案。
搜索后在回答之前插入提示信息,知识库的数据就被模型知道了。
为防止爆显存,插入的数据不能太长,所以有字数限制。
知识库在线模式:pip install -r requirements-bing.txt
主要是有以下几种方案:
- s模式,基于 whoosh 搜索引擎,生成提示语。
- x模式,基于 model/simcse-chinese-roberta-wwm-ext 模型,去生成提示语
- bing模式,cn.bing搜索,仅国内可用
- bingxs模式,cn.bing学术搜索,仅国内可用
- bingsite模式,bing站内搜索,需设置网址
把自己的txt格式的文档放在名为txt的文件夹里,运行:
run_data_processing.bat
正常使用中,勾选右上角知识库
运行:run_GLM6B.bat
。
模型位置等参数:修改settings.bat
。
默认参数在GTX1660Ti(6G显存)上运行良好。
运行:run_rwkv.bat
。
模型位置等参数:修改settings.bat
。
默认参数在GTX1660Ti(6G显存)上正常运行,但速度较慢。
YuanAPI.py
模型默认位置:ChatYuan-large-v2
这个最轻量,是电脑都能跑,但是智力差点
实现以下知识库模组:
文本检索-完成
语义向量-完成
知识图谱
行业数据库
搜索引擎-完成
实现以下模型模组:
Vicuna