Qwen2-7B-Instruct
文字生成
W4A16

Qwen2-7B-Instruct
性能参考
设备
AI框架
精度
首字响应
编码速度
解码速度
上下文长度
文件大小
模型详情
Qwen2 是一系列语言模型,包括不同模型规模的解码器语言模型。对于每个规模,我们发布基础语言模型和对齐的聊天模型。它基于Transformer架构,采用SwiGLU激活、注意力QKV偏置、组查询注意力等技术。此外,Qwen2还提供了一个改进的分词器,能够适应多种自然语言和编程语言。
源模型评估
注意:此表格显示的是源模型的评估,而非量化模型的评估。源模型评估来自于 Qwen2-7B-Instruct 评估结果
Datasets | Llama-3-8B-Instruct | Yi-1.5-9B-Chat | GLM-4-9B-Chat | Qwen1.5-7B-Chat | Qwen2-7B-Instruct |
---|---|---|---|---|---|
English | |||||
MMLU | 68.4 | 69.5 | 72.4 | 59.5 | 70.5 |
MMLU-Pro | 41.0 | - | - | 29.1 | 44.1 |
GPQA | 34.2 | - | - | 27.8 | 25.3 |
TheroemQA | 23.0 | - | - | 14.1 | 25.3 |
MT-Bench | 8.05 | 8.20 | 8.35 | 7.60 | 8.41 |
Coding | |||||
Humaneval | 62.2 | 66.5 | 71.8 | 46.3 | 79.9 |
MBPP | 67.9 | - | - | 48.9 | 67.2 |
MultiPL-E | 48.5 | - | - | 27.2 | 59.1 |
Evalplus | 60.9 | - | - | 44.8 | 70.3 |
LiveCodeBench | 17.3 | - | - | 6.0 | 26.6 |
Mathematics | |||||
GSM8K | 79.6 | 84.8 | 79.6 | 60.3 | 82.3 |
MATH | 30.0 | 47.7 | 50.6 | 23.2 | 49.6 |
Chinese | |||||
C-Eval | 45.9 | - | 75.6 | 67.3 | 77.2 |
AlignBench | 6.20 | 6.90 | 7.01 | 6.20 | 7.21 |
AidLite SDK推理
待发布
性能参考
设备
AI框架
精度
首字响应
编码速度
解码速度
上下文长度
文件大小