notebooks/gradio_web_demo.ipynb
以ChatGPT、GPT-4等为代表的大语言模型(Large Language Model, LLM)掀起了新一轮自然语言处理领域的研究浪潮,展现出了类通用人工智能(AGI)的能力,受到业界广泛关注。然而,由于大语言模型的训练和部署都极为昂贵,为构建透明且开放的学术研究造成了一定的阻碍。
为了促进大模型在中文NLP社区的开放研究,本项目开源了中文LLaMA模型和指令精调的Alpaca大模型。这些模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,中文Alpaca模型进一步使用了中文指令数据进行精调,显著提升了模型对指令的理解和执行能力。详细内容请参考技术报告(Cui, Yang, and Yao, 2023)。
注意:
克隆项目源码
!git clone https://github.com/ymcui/Chinese-LLaMA-Alpaca.git
安装依赖
!pip install -r Chinese-LLaMA-Alpaca/requirements.txt
!pip install peft==0.3.0
!pip install gradio
!pip install sentencepiece
从Hugging Face下载llama权重和chinese llama lora权重
!git clone https://huggingface.co/ziqingyang/chinese-alpaca-lora-7b
!git clone https://huggingface.co/elinas/llama-7b-hf-transformers-4.29
启动web demo,如果没有申请到T4 colab,则添加--only_cpu选项,如果是T4机器,则使用--load_in_8bit选项,如果是V100、A100机器则不需要,选用load_in_8bits需安装bitsandbytes
!pip install bitsandbytes
!python Chinese-LLaMA-Alpaca/scripts/inference/gradio_demo.py --base_model llama-7b-hf-transformers-4.29 --lora_model chinese-alpaca-lora-7b --load_in_8bit