Text2SQL_DB-GPT-HUB微调-程序员宅基地

技术标签: oracle  gpt  数据库  

DB-GPT-Hub 是一个利用 LLMs 实现 Text-to-SQL 解析的实验项目,主要包含数据集收集、数据预处理、模型选择与构建和微调权重等步骤,通过这一系列的处理可以在提高 Text-to-SQL 能力的同时降低模型训练成本,让更多的开发者参与到 Text-to-SQL 的准确度提升工作当中,最终实现基于数据库的自动问答能力,让用户可以通过自然语言描述完成复杂数据库的查询操作等工作。(非简单搬运,自己实际部署有坑,填坑ing,是DB-GPT的用户)
##Spider 数据集
本项目案例数据主要以 Spider 数据集为示例 :
Spider: 一个跨域的复杂 text2sql 数据集,包含了 10,181 条自然语言问句、分布在200 个独立数据库中的 5,693 条 SQL,内容覆盖了 138 个不同的领域。(联系我,可以私发)。
其他数据集:
WikiSQL: 一个大型的语义解析数据集,由 80,654 个自然语句表述和 24,241 张表格的 sql 标注构成。WikiSQL 中每一个问句的查询范围仅限于同一张表,不包含排序、分组、子查询等复杂操作。
CHASE: 一个跨领域多轮交互 text2sql 中文数据集,包含 5459 个多轮问题组成的列表,一共 17,940 个 <query, SQL> 二元组,涉及 280 个不同领域的数据库。
BIRD-SQL:数据集是一个英文的大规模跨领域文本到 SQL 基准测试,特别关注大型数据库内容。该数据集包含 12,751 对文本到SQL数据对和 95 个数据库,总大小为 33.4GB,跨越 37 个职业领域。BIRD-SQL 数据集通过探索三个额外的挑战,即处理大规模和混乱的数据库值、外部知识推理和优化 SQL 执行效率,缩小了文本到 SQL 研究与实际应用之间的差距。
CoSQL: 一个用于构建跨域对话文本到 sql 系统的语料库。它是 Spider 和 SParC 任务的对话版本。CoSQL 由 30k+ 回合和 10k+ 带注释的 SQL 查询组成,这些查询来自 Wizard-of-Oz 的 3k 个对话集合,查询了跨越 138 个领域的 200 个复杂数据库。每个对话都模拟了一个真实的 DB 查询场景,其中一个工作人员作为用户探索数据库,一个 SQL 专家使用 SQL 检索答案,澄清模棱两可的问题,或者以其他方式通知。
按照 NSQL 的处理模板,对数据集做简单处理,共得到约 20w 条训练数据,链接详见附录 Healthy13/Text2SQL。

02基座模型
DB-GPT-HUB 目前已经支持的 base 模型有:

CodeLlama Baichuan2 LLaMa/LLaMa2 Falcon Qwen XVERSE ChatGLM2 internlm Falcon

模型可以基于 quantization_bit 为 4 的量化微调 (QLoRA) 所需的最低硬件资源,可以参考如下:
其中相关参数均设置为最小,batch_size 为 1 ,max_length 为 512。根据经验,如果计算资源足够,为了效果更好,建议相关长度值设置为 1024 或者 2048。
在这里插入图片描述

PART 3使用方法
01环境准备
下载项目,有镜像加速,任选其一就可。
在这里插入图片描述

git clone https://github.com/eosphoros-ai/DB-GPT-Hub.git
/ git clone https://gitclone.com/github.com/eosphoros-ai/DB-GPT-Hub.git
/ git clone https://hub.fgit.cf/eosphoros-ai/DB-GPT-Hub.git
/ git clone https://github.moeyy.xyz/https://github.com/eosphoros-ai/DB-GPT-Hub.git
/ git clone https://ghproxy.com/https://github.com/eosphoros-ai/DB-GPT-Hub.git

项目文件中,

cd DB-GPT-Hub

创建虚拟环境名为dbgpt_hub基于python=3.10,选择yes。
在这里插入图片描述

conda create -n dbgpt_hub python=3.10 

进去虚拟环境,

conda activate dbgpt_hub

其中可能会有IMPORTANT:You may need to close and restart your shell after running'conda init'.的错误。在这里插入图片描述
附解决方法:source activate conda activate
在这里插入图片描述

安装依赖

pip install -r requirements.txt

其中安装torch最后killed,它说你的空闲内存不足以安装软件包,但有一种方法你仍然可以使用它。

pip install torch --no-cache-dir

在这里插入图片描述

02数据准备
DB-GPT-Hub使用的是信息匹配生成法进行数据准备,即结合表信息的 SQL + Repository 生成方式,这种方式结合了数据表信息,能够更好地理解数据表的结构和关系,适用于生成符合需求的 SQL 语句。从 spider数据集链接下载 spider 数据集,默认将数据下载解压后,放在目录 dbgpt_hub/data下面,即路径为 dbgpt_hub/data/spider。
数据预处理部分,只需运行如下脚本即可:sh dbgpt_hub/scripts/gen_train_eval_data.sh
在这里插入图片描述

#生成train数据 和dev(eval)数据,

sh dbgpt_hub/scripts/

在 dbgpt_hub/data/ 目录你会得到新生成的训练文件 example_text2sql_train.json 和测试文件 example_text2sql_dev.json ,数据量分别为 8659 和 1034 条。
生成的json中的数据形如:

{
    
        "db_id": "department_management",
        "instruction": "I want you to act as a SQL terminal in front of an example database, you need only to return the sql command to me.Below is an instruction that describes a task, Write a response that appropriately completes the request.\n\"\n##Instruction:\ndepartment_management contains tables such as department, head, management. Table department has columns such as Department_ID, Name, Creation, Ranking, Budget_in_Billions, Num_Employees. Department_ID is the primary key.\nTable head has columns such as head_ID, name, born_state, age. head_ID is the primary key.\nTable management has columns such as department_ID, head_ID, temporary_acting. department_ID is the primary key.\nThe head_ID of management is the foreign key of head_ID of head.\nThe department_ID of management is the foreign key of Department_ID of department.\n\n",
        "input": "###Input:\nHow many heads of the departments are older than 56 ?\n\n###Response:",
        "output": "SELECT count(*) FROM head WHERE age  >  56",
        "history": []
    },

03模型微调
本项目微调不仅能支持 QLoRA 和 LoRA 法,还支持 deepseed。可以运行以下命令来微调模型,默认带着参数 --quantization_bit 为 QLoRA 的微调方式,如果想要转换为 lora的微调,只需在脚本中去掉 quantization_bit 参数即可。默认 QLoRA 微调,运行命令:

sh dbgpt_hub/scripts/train_sft.sh

微调后的模型权重会默认保存到 adapter 文件夹下面,即 dbgpt_hub/output/adapter 目录中。
如果使用多卡训练,想要用 deepseed,则将 train_sft.sh 中如下的默认的内容:

CUDA_VISIBLE_DEVICES=0 python dbgpt_hub/train/sft_train.py \
    --quantization_bit 4 \
    ...

更改为:

deepspeed --num_gpus 2  dbgpt_hub/train/sft_train.py \
    --deepspeed dbgpt_hub/configs/ds_config.json \
    --quantization_bit 4 \
    ...

其他省略 (…) 的部分均保持一致即可。如果想要更改默认的 deepseed 配置,进入 dbgpt_hub/configs 目录,在 ds_config.json 更改即可。

脚本中微调时不同模型对应的关键参数 lora_target 和 template.

train_sft.sh 中其他关键参数含义:

quantization_bit:是否量化,取值为[ 4 或者 8 ]。

model_name_or_path:LLM模型的路径。

dataset:取值为训练数据集的配置名字,对应在 dbgpt_hub/data/dataset_info.json 中外层 key 值,如 example_text2sql。

max_source_length:输入模型的文本长度,如果计算资源支持,可以尽能设大,如 1024 或者 2048。

max_target_length:输出模型的 sql 内容长度,设置为 512 一般足够。

output_dir :SFT 微调时 Peft 模块输出的路径,默认设置在 dbgpt_hub/output/adapter/路径下 。

per_device_train_batch_size :batch 的大小,如果计算资源支持,可以设置为更大,默认为 1 。

gradient_accumulation_steps :梯度更新的累计 steps 值。

save_steps :模型保存的 ckpt 的 steps 大小值,默认可以设置为 100。

num_train_epochs :训练数据的 epoch 数。

04模型预测
项目目录下 ./dbgpt_hub/ 下的 output/pred/,此文件路径为关于模型预测结果默认输出的位置(如果没有则需要创建上)。
预测运行命令:

sh ./dbgpt_hub/scripts/predict_sft.sh

脚本中默认带着参数 --quantization_bit 为 QLoRA 的预测,去掉即为 LoRA 的预测方式。

其中参数 --predicted_out_filename 的值为模型预测的结果文件名,结果在dbgpt_hub/output/pred 目录下可以找到。

#05模型权重
可以从 Huggingface 查看我们之前8月份上传的对应的 Peft 模块的权重 ,huggingface 地址参见附录 。新的更好的在 spider 的评估集上执行准确率超越 GPT-4 的权重我们将尽快释放出。
如果你需要将训练的基础模型和微调的Peft模块的权重合并,导出一个完整的模型。则运行如下模型导出脚本:

sh ./dbgpt_hub/scripts/export_merge.sh

注意将脚本中的相关参数路径值替换为你项目所对应的路径。

#06模型评估

对于模型在数据集上的效果评估,默认为在 spider 数据集上。运行以下命令来:

python dbgpt_hub/eval/evaluation.py --plug_value --input  Your_model_pred_file

你可以在项目的 docs/eval_llm_result.md 找到我们最新的评估结果。

#附录

DB-GPT 框架: https://github.com/eosphoros-ai
Text2SQL 微调:https://github.com/eosphoros-ai/DB-GPT-Hub
Awesome-Text2SQL:https://github.com/eosphoros-ai/Awesome-Text2SQL

DB-GPT-WEB: https://github.com/eosphoros-ai/DB-GPT-Web

Huggingface :https://huggingface.co/eosphoros

Healthy13/Text2SQL:https://huggingface.co/datasets/Healthy13/Text2SQL/tree/main

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/m0_53353946/article/details/133882242

智能推荐

分布式光纤传感器的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告_预计2026年中国分布式传感器市场规模有多大-程序员宅基地

文章浏览阅读3.2k次。本文研究全球与中国市场分布式光纤传感器的发展现状及未来发展趋势,分别从生产和消费的角度分析分布式光纤传感器的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规格产品的价格、产量、产值及全球和中国市场主要生产商的市场份额。主要生产商包括:FISO TechnologiesBrugg KabelSensor HighwayOmnisensAFL GlobalQinetiQ GroupLockheed MartinOSENSA Innovati_预计2026年中国分布式传感器市场规模有多大

07_08 常用组合逻辑电路结构——为IC设计的延时估计铺垫_基4布斯算法代码-程序员宅基地

文章浏览阅读1.1k次,点赞2次,收藏12次。常用组合逻辑电路结构——为IC设计的延时估计铺垫学习目的:估计模块间的delay,确保写的代码的timing 综合能给到多少HZ,以满足需求!_基4布斯算法代码

OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版-程序员宅基地

文章浏览阅读3.3k次,点赞3次,收藏5次。OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版

关于美国计算机奥赛USACO,你想知道的都在这_usaco可以多次提交吗-程序员宅基地

文章浏览阅读2.2k次。USACO自1992年举办,到目前为止已经举办了27届,目的是为了帮助美国信息学国家队选拔IOI的队员,目前逐渐发展为全球热门的线上赛事,成为美国大学申请条件下,含金量相当高的官方竞赛。USACO的比赛成绩可以助力计算机专业留学,越来越多的学生进入了康奈尔,麻省理工,普林斯顿,哈佛和耶鲁等大学,这些同学的共同点是他们都参加了美国计算机科学竞赛(USACO),并且取得过非常好的成绩。适合参赛人群USACO适合国内在读学生有意向申请美国大学的或者想锻炼自己编程能力的同学,高三学生也可以参加12月的第_usaco可以多次提交吗

MySQL存储过程和自定义函数_mysql自定义函数和存储过程-程序员宅基地

文章浏览阅读394次。1.1 存储程序1.2 创建存储过程1.3 创建自定义函数1.3.1 示例1.4 自定义函数和存储过程的区别1.5 变量的使用1.6 定义条件和处理程序1.6.1 定义条件1.6.1.1 示例1.6.2 定义处理程序1.6.2.1 示例1.7 光标的使用1.7.1 声明光标1.7.2 打开光标1.7.3 使用光标1.7.4 关闭光标1.8 流程控制的使用1.8.1 IF语句1.8.2 CASE语句1.8.3 LOOP语句1.8.4 LEAVE语句1.8.5 ITERATE语句1.8.6 REPEAT语句。_mysql自定义函数和存储过程

半导体基础知识与PN结_本征半导体电流为0-程序员宅基地

文章浏览阅读188次。半导体二极管——集成电路最小组成单元。_本征半导体电流为0

随便推点

【Unity3d Shader】水面和岩浆效果_unity 岩浆shader-程序员宅基地

文章浏览阅读2.8k次,点赞3次,收藏18次。游戏水面特效实现方式太多。咱们这边介绍的是一最简单的UV动画(无顶点位移),整个mesh由4个顶点构成。实现了水面效果(左图),不动代码稍微修改下参数和贴图可以实现岩浆效果(右图)。有要思路是1,uv按时间去做正弦波移动2,在1的基础上加个凹凸图混合uv3,在1、2的基础上加个水流方向4,加上对雾效的支持,如没必要请自行删除雾效代码(把包含fog的几行代码删除)S..._unity 岩浆shader

广义线性模型——Logistic回归模型(1)_广义线性回归模型-程序员宅基地

文章浏览阅读5k次。广义线性模型是线性模型的扩展,它通过连接函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。广义线性模型拟合的形式为:其中g(μY)是条件均值的函数(称为连接函数)。另外,你可放松Y为正态分布的假设,改为Y 服从指数分布族中的一种分布即可。设定好连接函数和概率分布后,便可以通过最大似然估计的多次迭代推导出各参数值。在大部分情况下,线性模型就可以通过一系列连续型或类别型预测变量来预测正态分布的响应变量的工作。但是,有时候我们要进行非正态因变量的分析,例如:(1)类别型.._广义线性回归模型

HTML+CSS大作业 环境网页设计与实现(垃圾分类) web前端开发技术 web课程设计 网页规划与设计_垃圾分类网页设计目标怎么写-程序员宅基地

文章浏览阅读69次。环境保护、 保护地球、 校园环保、垃圾分类、绿色家园、等网站的设计与制作。 总结了一些学生网页制作的经验:一般的网页需要融入以下知识点:div+css布局、浮动、定位、高级css、表格、表单及验证、js轮播图、音频 视频 Flash的应用、ul li、下拉导航栏、鼠标划过效果等知识点,网页的风格主题也很全面:如爱好、风景、校园、美食、动漫、游戏、咖啡、音乐、家乡、电影、名人、商城以及个人主页等主题,学生、新手可参考下方页面的布局和设计和HTML源码(有用点赞△) 一套A+的网_垃圾分类网页设计目标怎么写

C# .Net 发布后,把dll全部放在一个文件夹中,让软件目录更整洁_.net dll 全局目录-程序员宅基地

文章浏览阅读614次,点赞7次,收藏11次。之前找到一个修改 exe 中 DLL地址 的方法, 不太好使,虽然能正确启动, 但无法改变 exe 的工作目录,这就影响了.Net 中很多获取 exe 执行目录来拼接的地址 ( 相对路径 ),比如 wwwroot 和 代码中相对目录还有一些复制到目录的普通文件 等等,它们的地址都会指向原来 exe 的目录, 而不是自定义的 “lib” 目录,根本原因就是没有修改 exe 的工作目录这次来搞一个启动程序,把 .net 的所有东西都放在一个文件夹,在文件夹同级的目录制作一个 exe._.net dll 全局目录

BRIEF特征点描述算法_breif description calculation 特征点-程序员宅基地

文章浏览阅读1.5k次。本文为转载,原博客地址:http://blog.csdn.net/hujingshuang/article/details/46910259简介 BRIEF是2010年的一篇名为《BRIEF:Binary Robust Independent Elementary Features》的文章中提出,BRIEF是对已检测到的特征点进行描述,它是一种二进制编码的描述子,摈弃了利用区域灰度..._breif description calculation 特征点

房屋租赁管理系统的设计和实现,SpringBoot计算机毕业设计论文_基于spring boot的房屋租赁系统论文-程序员宅基地

文章浏览阅读4.1k次,点赞21次,收藏79次。本文是《基于SpringBoot的房屋租赁管理系统》的配套原创说明文档,可以给应届毕业生提供格式撰写参考,也可以给开发类似系统的朋友们提供功能业务设计思路。_基于spring boot的房屋租赁系统论文