libs/chatchat-server/README.md
📃 LangChain-Chatchat (原 Langchain-ChatGLM)
基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的 RAG 与 Agent 应用项目。
点击这里了解项目详情。
pip install langchain-chatchat
# or if you use xinference to provide model API:
# pip install langchain-chatchat[xinference]
# if you update from an old version, we suggest to run init again to update yaml templates:
# pip install -U langchain-chatchat
# chatchat init
详见这里的安装指引。
注意:chatchat请放在独立的虚拟环境中,比如conda,venv,virtualenv等
已知问题,不能跟xinference一起安装,会让一些插件出bug,例如文件无法上传
除了通过pypi安装外,您也可以选择使用源码启动。(Tips: 源码配置可以帮助我们更快的寻找bug,或者改进基础设施。我们不建议新手使用这个方式)
docker pull chatimage/chatchat:0.3.1.2-2024-0720
docker pull ccr.ccs.tencentyun.com/chatchat/chatchat:0.3.1.2-2024-0720 # 国内镜像
[!important] 强烈建议: 使用 docker-compose 部署, 具体参考 README_docker
🌐 AutoDL 镜像 中 0.3.1
版本所使用代码已更新至本项目 v0.3.1 版本。
项目运行需要特定的数据目录和配置文件,执行下列命令可以生成默认配置(您可以随时修改 yaml 配置文件):
# set the root path where storing data.
# will use current directory if not set
export CHATCHAT_ROOT=/path/to/chatchat_data
# initialize data and yaml configuration templates
chatchat init
在 CHATCHAT_ROOT 或当前目录可以找到 *_settings.yaml 文件,修改这些文件选择合适的模型配置,详见初始化
确保所有配置正确后(特别是 LLM 和 Embedding Model),执行下列命令创建默认知识库、启动服务:
chatchat kb -r
chatchat start -a
如无错误将自动弹出浏览器页面。
更多命令可以通过 chatchat --help 查看。
2023年4月: Langchain-ChatGLM 0.1.0 发布,支持基于 ChatGLM-6B 模型的本地知识库问答。
2023年8月: Langchain-ChatGLM 改名为 Langchain-Chatchat,发布 0.2.0 版本,使用 fastchat 作为模型加载方案,支持更多的模型和数据库。
2023年10月: Langchain-Chatchat 0.2.5 发布,推出 Agent 内容,开源项目在Founder Park & Zhipu AI & Zilliz
举办的黑客马拉松获得三等奖。
2023年12月: Langchain-Chatchat 开源项目获得超过 20K stars.
2024年6月: Langchain-Chatchat 0.3.0 发布,带来全新项目架构。
🔥 让我们一起期待未来 Chatchat 的故事 ···
本项目代码遵循 Apache-2.0 协议。
如果本项目有帮助到您的研究,请引用我们:
@software{langchain_chatchat,
title = {{langchain-chatchat}},
author = {Liu, Qian and Song, Jinke, and Huang, Zhiguo, and Zhang, Yuxuan, and glide-the, and Liu, Qingwei},
year = 2024,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/chatchat-space/Langchain-Chatchat}}
}