XTuner & InternLM

1.概述目标:通过微调,帮助模型认清自己身份(赋予的某种功能)方式:使用XTuner进行微调微调前(回答比较官方)2.实操2.1微调环境准备InternStudio 平台中,从本地 clone 一个已有 pytorch 2.0.1 的环境(

XTuner & InternLM

1.概述

目标:通过微调,帮助模型认清自己身份(赋予的某种功能)

方式:使用XTuner进行微调

微调前(回答比较官方)

2.实操

2.1微调环境准备

InternStudio 平台中,从本地 clone 一个已有 pytorch 2.0.1 的环境(后续均在该环境执行,若为其他环境可作为参考)

代码语言:javascript代码运行次数:0运行复制
# 进入环境后首先 bash
bash
conda create --name personal_assistant --clone=/root/share/conda_envs/internlm-base

如果在其他平台:

代码语言:javascript代码运行次数:0运行复制
conda create --name personal_assistant python=3.10 -y# 
激活环境
conda activate personal_assistant
代码语言:javascript代码运行次数:0运行复制
cd ~

# 创建版本文件夹并进入,以跟随本教程
# personal_assistant用于存放本教程所使用的东西
mkdir /root/personal_assistant && cd /root/personal_assistant
mkdir /root/personal_assistant/xtuner019 && cd /root/personal_assistant/xtuner019

拉取 0.1.9 的版本源码

代码语言:javascript代码运行次数:0运行复制
git clone -b v0.1.9  

无法访问github的用户请从 gitee 拉取:

代码语言:javascript代码运行次数:0运行复制
git clone -b v0.1.9 

进入源码目录

代码语言:javascript代码运行次数:0运行复制
cd xtuner

从源码安装 XTuner

代码语言:javascript代码运行次数:0运行复制
pip install -e '.[all]'

2.2数据准备

创建data文件夹用于存放用于训练的数据集

代码语言:javascript代码运行次数:0运行复制
mkdir /root/personal_assistant/data && cd /root/personal_assistant/data

data目录下创建一个json文件personal_assistant.json作为本次微调所使用的数据集。json中内容可参考下方

其中conversation表示一次对话的内容,input为输入,即用户会问的问题,output为输出,即想要模型回答的答案。

代码语言:javascript代码运行次数:0运行复制
[
    {
        "conversation": [
            {
                "input": "请介绍一下你是谁",
                "output": "我是绛烨的AI小助手,使用的是上海AI实验室书生·浦语的7B大模型哦"
            }
        ]
    },
    {
        "conversation": [
            {
                "input": "请介绍一下绛烨的公众号",
                "output": "绛烨公众号目前专注于AI绘画、AI大模型及prompt提示词的研究与应用。"
            }
        ]
    },
        {
        "conversation": [
            {
                "input": "绛烨目前开放的自媒体有哪些",
                "output": "绛烨目前开放的自媒体平台有公众号、视频号、抖音、快手、哔哩哔哩等。"
            }
        ]
    }
]

2.3配置准备

下载模型InternLM-chat-7B,InternStudio 平台的 share 目录下已经为我们准备了全系列的 InternLM 模型,可以使用如下命令复制internlm-chat-7b

代码语言:javascript代码运行次数:0运行复制
mkdir -p /root/personal_assistant/model/Shanghai_AI_Laboratory
cp -r /root/share/temp/model_repos/internlm-chat-7b /root/personal_assistant/model/Shanghai_AI_Laboratory

XTuner 提供多个开箱即用的配置文件,用户可以通过下列命令查看:

  • 列出所有内置配置
代码语言:javascript代码运行次数:0运行复制
xtuner list-cfg
  • 创建用于存放配置的文件夹config并进入
代码语言:javascript代码运行次数:0运行复制
mkdir /root/personal_assistant/config && cd /root/personal_assistant/config

拷贝一个配置文件到当前目录:xtuner copy-cfg ${CONFIG_NAME} ${SAVE_PATH},在本例中:

代码语言:javascript代码运行次数:0运行复制
xtuner copy-cfg internlm_chat_7b_qlora_oasst1_e3 .

修改拷贝后的文件internlm_chat_7b_qlora_oasst1_e3_copy.py,修改下述位置:

红框为配置文件中PART 1需要修改的内容

红框为配置文件中PART 3需要修改的内容

代码语言:javascript代码运行次数:0运行复制
# PART 1 中
# 预训练模型存放的位置
pretrained_model_name_or_path = '/root/personal_assistant/model/Shanghai_AI_Laboratory/internlm-chat-7b'

# 微调数据存放的位置
data_path = '/root/personal_assistant/data/personal_assistant.json'

# 训练中最大的文本长度
max_length = 512

# 每一批训练样本的大小
batch_size = 2

# 最大训练轮数
max_epochs = 3

# 验证的频率
evaluation_freq = 90

# 用于评估输出内容的问题(用于评估的问题尽量与数据集的question保持一致)
evaluation_inputs =[ '请介绍一下你自己', '请介绍一下绛烨正在做的事','绛烨目前开放的自媒体有哪些' ]


# PART 3 中
dataset=dict(type=load_dataset, path='json', data_files=dict(train=data_path))
dataset_map_fn=None

2.4微调启动

xtuner train命令启动训练、

代码语言:javascript代码运行次数:0运行复制
xtuner train /root/personal_assistant/config/internlm_chat_7b_qlora_oasst1_e3_copy.py

会在训练完成后,输出用于验证的Sample output

2.5微调后参数转换/合并

训练后的pth格式参数转Hugging Face格式

创建用于存放Hugging Face格式参数的hf文件夹

代码语言:javascript代码运行次数:0运行复制
mkdir /root/personal_assistant/config/work_dirs/hf

export MKL_SERVICE_FORCE_INTEL=1

配置文件存放的位置

代码语言:javascript代码运行次数:0运行复制
export CONFIG_NAME_OR_PATH=/root/personal_assistant/config/internlm_chat_7b_qlora_oasst1_e3_copy.py

模型训练后得到的pth格式参数存放的位置

代码语言:javascript代码运行次数:0运行复制
export PTH=/root/personal_assistant/config/work_dirs/internlm_chat_7b_qlora_oasst1_e3_copy/epoch_3.pth

pth文件转换为Hugging Face格式后参数存放的位置

代码语言:javascript代码运行次数:0运行复制
export SAVE_PATH=/root/personal_assistant/config/work_dirs/hf

执行参数转换

代码语言:javascript代码运行次数:0运行复制
xtuner convert pth_to_hf $CONFIG_NAME_OR_PATH $PTH $SAVE_PATH

Merge模型参数

代码语言:javascript代码运行次数:0运行复制
export MKL_SERVICE_FORCE_INTEL=1
export MKL_THREADING_LAYER='GNU'

原始模型参数存放的位置

代码语言:javascript代码运行次数:0运行复制
export NAME_OR_PATH_TO_LLM=/root/personal_assistant/model/Shanghai_AI_Laboratory/internlm-chat-7b

Hugging Face格式参数存放的位置

代码语言:javascript代码运行次数:0运行复制
export NAME_OR_PATH_TO_ADAPTER=/root/personal_assistant/config/work_dirs/hf
代码语言:javascript代码运行次数:0运行复制
最终Merge后的参数存放的位置
代码语言:javascript代码运行次数:0运行复制
mkdir /root/personal_assistant/config/work_dirs/hf_merge
export SAVE_PATH=/root/personal_assistant/config/work_dirs/hf_merge
代码语言:javascript代码运行次数:0运行复制
执行参数Merge
代码语言:javascript代码运行次数:0运行复制
xtuner convert merge \
    $NAME_OR_PATH_TO_LLM \
    $NAME_OR_PATH_TO_ADAPTER \
    $SAVE_PATH \
    --max-shard-size 2GB

2.6网页DEMO

安装网页Demo所需依赖

代码语言:javascript代码运行次数:0运行复制
pip install streamlit==1.24.0

下载InternLM项目代码,创建code文件夹用于存放InternLM项目代码

代码语言:javascript代码运行次数:0运行复制
mkdir /root/personal_assistant/code && cd /root/personal_assistant/code
git clone .git

/root/personal_assistant/codeInternLM/web_demo.py 中 29 行和 33 行的模型路径更换为Merge后存放参数的路径 /root/personal_assistant/config/work_dirs/hf_merge

运行 /root/personal_assistant/code/InternLM 目录下的 web_demo.py 文件,输入以下命令后,将端口映射到本地。在本地浏览器输入 http://127.0.0.1:6006 即可。

代码语言:javascript代码运行次数:0运行复制
streamlit run /root/personal_assistant/code/InternLM/web_demo.py --server.address 127.0.0.1 --server.port 6006 

注意:要在浏览器打开 http://127.0.0.1:6006 页面后,模型才会加载。 在加载完模型之后,就可以与微调后的 InternLM-Chat-7B 进行对话了

3.效果

微调前

微调后,自己的界面有点问题,还没跑出来,放一张大佬做成功的截图。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2024-01-10,如有侵权请联系 cloudcommunity@tencent 删除root模型数据源码chat

发布者:admin,转转请注明出处:http://www.yc00.com/web/1755000189a5225454.html

相关推荐

  • XTuner & InternLM

    1.概述目标:通过微调,帮助模型认清自己身份(赋予的某种功能)方式:使用XTuner进行微调微调前(回答比较官方)2.实操2.1微调环境准备InternStudio 平台中,从本地 clone 一个已有 pytorch 2.0.1 的环境(

    1月前
    160

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信