Skip to content

Latest commit

 

History

History
63 lines (47 loc) · 2.76 KB

README.md

File metadata and controls

63 lines (47 loc) · 2.76 KB

本项目为书籍《大型语言模型实战指南:应用实践与场景落地》中第9章《基于知识库的大型语言模型问答应用》实战部分代码-基于ChatGLM3知识库答案生成任务的微调。

项目简介

项目是基于ChatGLM-3知识库答案生成任务的微调方法介绍。利用ChatGLM-3-6B模型从开源数据中进行长文本表征任务微调,并利用对比学习方法进行数据构造。

项目主要结构如下:

  • data:存放数据及数据处理的文件夹。
    • dev.jsonl:验证集数据。
    • train.jsonl:训练数据。
    • data_helper.py:用于针对开源数据进行数据处理,生成训练集及验证集数据。
  • finetune:模型训练的文件夹。
    • train_qlora.py:使用QLoRA进行ChatGLM3训练的函数。
  • predict:推理所需的代码文件夹。
    • predict.py:利用已训练的模型进行模型生成的方法。

数据处理

数据预处理需要运行data_helper.py文件,会在data文件夹中生成训练集和测试集文件。

命令如下:

cd data

python3 data_helper.py --data_path "./multi" \
                       --save_home "./"

本项目中的数据来源于开源社区huggingface.co中的Multi-Doc-QA-Chinese,参考文档源数据来自悟道开源200GB数据,其中问题和回答是通过大语言模型(GPT-3.5)自动生成的,并且具有高质量。原始数据集中,每个样本包含一个参考文档、99个无关文档、一个问题和一个基于参考文档的回答。

数据地址为:https://huggingface.co/datasets/yuyijiong/Multi-Doc-QA-Chinese

注意:如果需要修改数据生成路径或名称,请修改data_helper.py中相关配置的路径。

模型微调

模型训练需要运行train.py文件,会自动生成output_dir文件夹,存放每个save_model_step保存的模型文件。

命令如下:

  • 模型训练训练
cd finetune
python3 train_qlora.py --train_args_json ./chatglm3-6b_QLoRA.json  \
                            --train_data_path ../data/train.jsonl  \
                            --eval_data_path ../data/dev.jsonl  \
                            --model_name_or_path chatglm3-6b/  \
                            --seed 42  \
                            --max_input_length 1024  \
                            --max_output_length 512  \
                            --lora_rank 4  \
                            --lora_dim 8

模型推理

模型融合执行命令:

cd predict
python3 predict.py --model_path "your_model_path"

总结

本项目中的代码包含大量的注释信息,帮助读者更容易的阅读代码、以及了解其原理。读者跑通代码的后,可以根据自己特定的任务,定向修改配置参数或代码,实现自己响应的功能。