Qwen2-7B-Instruct
文字生成
W4A16
post
Qwen2-7B-Instruct

Qwen2 是Qwen大型语言模型的新系列。对于Qwen2,我们发布了多个基础语言模型和指令微调语言模型,规模从5亿到72亿个参数不等,其中包括一个专家混合模型。

与当前最先进的开源语言模型相比,包括先前发布的Qwen1.5,Qwen2在大多数基准测试中普遍超过了大多数开源模型,并在语言理解、语言生成、多语言能力、编码、数学、推理等方面表现出了与专有模型的竞争力。

Qwen2-7B-Instruct支持最大131,072个标记的上下文长度,能够处理大量输入。有关如何部署Qwen2以处理长文本的详细说明,请参阅这一部分

欲了解更多详情,请参阅Qwen的博客GitHub文档

性能参考

设备

AI框架
精度
首字响应
编码速度
解码速度
上下文长度
文件大小
模型详情

Qwen2 是一系列语言模型,包括不同模型规模的解码器语言模型。对于每个规模,我们发布基础语言模型和对齐的聊天模型。它基于Transformer架构,采用SwiGLU激活、注意力QKV偏置、组查询注意力等技术。此外,Qwen2还提供了一个改进的分词器,能够适应多种自然语言和编程语言。

源模型评估

注意:此表格显示的是源模型的评估,而非量化模型的评估。源模型评估来自于 Qwen2-7B-Instruct 评估结果

Datasets Llama-3-8B-Instruct Yi-1.5-9B-Chat GLM-4-9B-Chat Qwen1.5-7B-Chat Qwen2-7B-Instruct
English
MMLU 68.4 69.5 72.4 59.5 70.5
MMLU-Pro 41.0 - - 29.1 44.1
GPQA 34.2 - - 27.8 25.3
TheroemQA 23.0 - - 14.1 25.3
MT-Bench 8.05 8.20 8.35 7.60 8.41
Coding
Humaneval 62.2 66.5 71.8 46.3 79.9
MBPP 67.9 - - 48.9 67.2
MultiPL-E 48.5 - - 27.2 59.1
Evalplus 60.9 - - 44.8 70.3
LiveCodeBench 17.3 - - 6.0 26.6
Mathematics
GSM8K 79.6 84.8 79.6 60.3 82.3
MATH 30.0 47.7 50.6 23.2 49.6
Chinese
C-Eval 45.9 - 75.6 67.3 77.2
AlignBench 6.20 6.90 7.01 6.20 7.21
AidLite SDK推理

待发布

许可证
源模型许可证:APACHE-2.0
可部署模型许可证:APLUX-MODEL-FARM-LICENSE
性能参考

设备

AI框架
精度
首字响应
编码速度
解码速度
上下文长度
文件大小