Mistral-7B 是一个很强的 7B 开源模型,在 Mistral 官网和论文中声称可以在 5-shot MMLU 上达到 60.1% 的准确率,首先下载官方的模型权重文件(Mistral-7B-v0.1)并直接在原精度(BF16)上进行推理,尝试复现出官方的准确率。
这里使用 llmtask 来进行下游任务测试,非常方便快捷,只需要
pip install llmtask==0.0.2
即可完成安装,可以直接测试模型在 C-Eval 和 MMLU 数据集上的表现。
示例代码:
import random
from llmtask import TaskGenerator
choices = ("A", "B", "C", "D")
TG = TaskGenerator("mmlu", max_shot=4)
for task in TG:
TG.feedback(random.choice(choices))
print(TG.summary())
测试 Mistral-7B 原精度推理脚本:
import time
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
from llmtask import TaskGenerator
def log(msg):
with open("mmlu_5shot_bf16.log", "a") as f:
f.write(f"{
msg}\n")
device = "cuda"
model = AutoModelForCausalLM.from_pretrained("/path/to/Mistral-7B-v0.1", torch_dtype=torch.bfloat16).to(device)
tokenizer = AutoTokenizer.from_pretrained("/path/to/Mistral-7B-v0.1")
cnt = 0
TG = TaskGenerator("mmlu", max_shot=5)
for task in TG:
model_inputs = tokenizer([task], return_tensors="pt").to(device)
input_tokens = len(model_inputs['input_ids'][0])
t0 = time.time()
generated_ids = model.generate(**model_inputs, max_new_tokens=1, pad_token_id=tokenizer.eos_token_id)
ans = tokenizer.batch_decode([generated_ids[0][input_tokens:]])[0]
log(f"[{
cnt:5}] [{
(time.time() - t0):5.3f} s] => ans:{
ans}")
cnt += 1
TG.feedback(ans)
log(TG.summary())
torch.cuda.empty_cache()
测试结果如下(每次只推理一个 Token 作为模型选择的答案,很快就可以测试完成):
Precision | Avg (%) | STEM (%) | Social Science (%) | Humanities (%) | Other (%) | Total Time (s) |
---|---|---|---|---|---|---|
BF16 | 61.00 61.00 61.00 | 50.46 50.46 50.46 | 75.07 75.07 75.07 | 53.47 53.47 53.47 | 68.16 68.16 68.16 | 312.79 312.79 312.79 |
平均每道题耗时 204 204 204ms,最后的测试结果还算比较接近官方的结果,以此作为 baseline 和量化后的模型权重对比推理下游任务准确率的损失情况。
量化使用 transformers 内置的 bitsandbytes 提供的 LLM.int8()
作为 8bit 量化算法(threshold=6.0
),4bit 量化包含两种 4bit 的数据类型 FP4 和 NF4,以及 torch.float32
和 torch.float16
两种计算类型,接下来分别对这些场景进行测试。
进行 8bit 推理只需要修改加载权重的这一行即可:
虽然官方已经不推荐这样做了,但是这里不需要在
BitsAndBytesConfig
配置额外的参数,可以直接这样使用默认参数。
model = AutoModelForCausalLM.from_pretrained("/path/to/Mistral-7B-v0.1", load_in_8bit=True)
8bit 量化后平均每道题耗时 401 401 401ms,测试结果如下:
Precision | Avg (%) | STEM (%) | Social Science (%) | Humanities (%) | Other (%) | Total Time (s) |
---|---|---|---|---|---|---|
INT8 | 60.87 60.87 60.87 | 51.09 51.09 51.09 | 73.59 73.59 73.59 | 52.89 52.89 52.89 | 69.29 69.29 69.29 | 614.43 614.43 614.43 |
通过 BitsAndBytesConfig
来配置量化类型(FP4
/NF4
)测试脚本:
import time
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
from llmtask import TaskGenerator
def log(msg):
with open("mmlu_5shot_fp4_fp16.log", "a") as f:
f.write(f"{
msg}\n")
device = "cuda"
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.float16,
bnb_4bit_quant_type="fp4",
bnb_4bit_use_double_quant=False,
bnb_4bit_quant_storage=torch.uint8
)
model = AutoModelForCausalLM.from_pretrained("/path/to/Mistral-7B-v0.1", quantization_config=bnb_config)
tokenizer = AutoTokenizer.from_pretrained("/path/to/Mistral-7B-v0.1")
TG = TaskGenerator("mmlu", max_shot=5)
cnt = 0
for task in TG:
model_inputs = tokenizer([task], return_tensors="pt").to(device)
input_tokens = len(model_inputs['input_ids'][0])
t0 = time.time()
generated_ids = model.generate(**model_inputs, max_new_tokens=1, pad_token_id=tokenizer.eos_token_id)
ans = tokenizer.batch_decode([generated_ids[0][input_tokens:]])[0]
log(f"[{
cnt:5}] [{
(time.time() - t0):5.3f} s] => ans:{
ans}")
cnt += 1
TG.feedback(ans)
log(TG.summary())
torch.cuda.empty_cache()
下面是改变其中某个参数后在 MMLU 数据集上的准确率,可以看出即使是 4bit 对准确率影响都没有很大,首 Token 性能还可以接近原精度,还节省了大量的空间。
Quant Type | Compute Dtype | Double Quant | Avg (%) | Total Time (s) |
---|---|---|---|---|
FP4 | FP16 | False | 59.37 59.37 59.37 | 347.00 347.00 347.00 |
FP4 | FP16 | True | 59.17 59.17 59.17 | 353.22 353.22 353.22 |
FP4 | FP32 | False | 59.50 59.50 59.50 | 1061.27 1061.27 1061.27 |
NF4 | FP16 | False | 59.04 59.04 59.04 | 361.19 361.19 361.19 |
Python Packages | Version |
---|---|
torch | 2.2.1 |
transformers | 4.39.1 |
bitsandbytes | 0.43.0 |
accelerate | 0.28.0 |
llmtask | 0.0.2 |
文章浏览阅读1k次。通过使用ajax方法跨域请求是浏览器所不允许的,浏览器出于安全考虑是禁止的。警告信息如下:不过jQuery对跨域问题也有解决方案,使用jsonp的方式解决,方法如下:$.ajax({ async:false, url: 'http://www.mysite.com/demo.do', // 跨域URL ty..._nginx不停的xhr
文章浏览阅读2k次。关于在 Oracle 中配置 extproc 以访问 ST_Geometry,也就是我们所说的 使用空间SQL 的方法,官方文档链接如下。http://desktop.arcgis.com/zh-cn/arcmap/latest/manage-data/gdbs-in-oracle/configure-oracle-extproc.htm其实简单总结一下,主要就分为以下几个步骤。..._extproc
文章浏览阅读1.5w次。linux下没有上面的两个函数,需要使用函数 mbstowcs和wcstombsmbstowcs将多字节编码转换为宽字节编码wcstombs将宽字节编码转换为多字节编码这两个函数,转换过程中受到系统编码类型的影响,需要通过设置来设定转换前和转换后的编码类型。通过函数setlocale进行系统编码的设置。linux下输入命名locale -a查看系统支持的编码_linux c++ gbk->utf8
文章浏览阅读750次。今天准备从生产库向测试库进行数据导入,结果在imp导入的时候遇到“ IMP-00009:导出文件异常结束” 错误,google一下,发现可能有如下原因导致imp的数据太大,没有写buffer和commit两个数据库字符集不同从低版本exp的dmp文件,向高版本imp导出的dmp文件出错传输dmp文件时,文件损坏解决办法:imp时指定..._imp-00009导出文件异常结束
文章浏览阅读143次。当下是一个大数据的时代,各个行业都离不开数据的支持。因此,网络爬虫就应运而生。网络爬虫当下最为火热的是Python,Python开发爬虫相对简单,而且功能库相当完善,力压众多开发语言。本次教程我们爬取前程无忧的招聘信息来分析Python程序员需要掌握那些编程技术。首先在谷歌浏览器打开前程无忧的首页,按F12打开浏览器的开发者工具。浏览器开发者工具是用于捕捉网站的请求信息,通过分析请求信息可以了解请..._初级python程序员能力要求
文章浏览阅读7.6k次,点赞2次,收藏6次。@Service标注的bean,类名:ABDemoService查看源码后发现,原来是经过一个特殊处理:当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致public class AnnotationBeanNameGenerator implements BeanNameGenerator { private static final String C..._@service beanname
文章浏览阅读6.9w次,点赞73次,收藏463次。1.前序创建#include<stdio.h>#include<string.h>#include<stdlib.h>#include<malloc.h>#include<iostream>#include<stack>#include<queue>using namespace std;typed_二叉树的建立
文章浏览阅读7.1k次。在Asp.net上使用Excel导出功能,如果文件名出现中文,便会以乱码视之。 解决方法: fileName = HttpUtility.UrlEncode(fileName, System.Text.Encoding.UTF8);_asp.net utf8 导出中文字符乱码
文章浏览阅读2.1k次,点赞4次,收藏23次。第一次实验 词法分析实验报告设计思想词法分析的主要任务是根据文法的词汇表以及对应约定的编码进行一定的识别,找出文件中所有的合法的单词,并给出一定的信息作为最后的结果,用于后续语法分析程序的使用;本实验针对 PL/0 语言 的文法、词汇表编写一个词法分析程序,对于每个单词根据词汇表输出: (单词种类, 单词的值) 二元对。词汇表:种别编码单词符号助记符0beginb..._对pl/0作以下修改扩充。增加单词
文章浏览阅读773次。我在使用adb.exe时遇到了麻烦.我想使用与bash相同的adb.exe shell提示符,所以我决定更改默认的bash二进制文件(当然二进制文件是交叉编译的,一切都很完美)更改bash二进制文件遵循以下顺序> adb remount> adb push bash / system / bin /> adb shell> cd / system / bin> chm..._adb shell mv 权限
文章浏览阅读6.8k次,点赞12次,收藏125次。1. 单目相机标定引言相机标定已经研究多年,标定的算法可以分为基于摄影测量的标定和自标定。其中,应用最为广泛的还是张正友标定法。这是一种简单灵活、高鲁棒性、低成本的相机标定算法。仅需要一台相机和一块平面标定板构建相机标定系统,在标定过程中,相机拍摄多个角度下(至少两个角度,推荐10~20个角度)的标定板图像(相机和标定板都可以移动),即可对相机的内外参数进行标定。下面介绍张氏标定法(以下也这么称呼)的原理。原理相机模型和单应矩阵相机标定,就是对相机的内外参数进行计算的过程,从而得到物体到图像的投影_相机-投影仪标定
文章浏览阅读2.2k次。文章目录Wayland 架构Wayland 渲染Wayland的 硬件支持简 述: 翻译一篇关于和 wayland 有关的技术文章, 其英文标题为Wayland Architecture .Wayland 架构若是想要更好的理解 Wayland 架构及其与 X (X11 or X Window System) 结构;一种很好的方法是将事件从输入设备就开始跟踪, 查看期间所有的屏幕上出现的变化。这就是我们现在对 X 的理解。 内核是从一个输入设备中获取一个事件,并通过 evdev 输入_wayland