Qwen2.5-1.5B-Instruct
文字生成
W4A16
post
Qwen2.5-1.5B-Instruct

Qwen2.5 是最新系列的 Qwen 大语言模型。Qwen2.5 版本发布了多个基础语言模型和指令微调语言模型,参数规模从 0.5B 到 72B 不等。相比 Qwen2,Qwen2.5 带来了以下改进:

  • 显著增强的知识储备,在 代码编写数学能力 方面表现出色,得益于我们在这些领域的专业专家模型。
  • 指令遵循长文本生成(超过 8K token)、结构化数据理解(如表格)和 结构化输出生成(特别是 JSON)方面有了显著提升。
  • 对不同系统提示词的适应性更强,提升了角色扮演实现和聊天机器人的条件设定能力。
  • 长上下文支持,可处理最多 128K token,并能生成最多 8K token 的文本。
  • 多语言支持,覆盖 29+ 种语言,包括:中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等
性能参考

设备

AI框架
数据精度
首字响应
编码速度
解码速度
上下文长度
文件大小
模型详情
  • 类型:因果语言模型(Causal Language Models)
  • 训练阶段:预训练与后训练(Pretraining & Post-training)
  • 架构:基于 Transformer,采用 RoPE、SwiGLU、RMSNorm、带偏置的 Attention QKV 以及共享词嵌入
  • 参数总数:15.4 亿
  • 非嵌入参数数量:13.1 亿
  • 层数:28
  • 注意力头数(GQA):Q 有 12 个,KV 有 2 个
  • 上下文长度:完整支持 32,768 个 tokens,生成时支持 8,192 个 tokens

更多详情请参阅我们的 博客GitHub文档

源模型评估

注意:此表格显示的是源模型的评估,而非量化模型的评估。源模型评估来自于 Qwen2.5-1.5B-Instruct 评估结果

Datasets Qwen2-0.5B-Instruct Qwen2.5-0.5B-Instruct Qwen2-1.5B-Instruct Qwen2.5-1.5B-Instruct
MMLU-Pro 14.4 15.0 22.9 32.4
MMLU-redux 12.9 24.1 41.2 50.7
GPQA 23.7 29.8 21.2 29.8
MATH 13.9 34.4 25.3 55.2
GSM8K 40.1 49.6 61.6 73.2
HumanEval 31.1 35.4 42.1 61.6
MBPP 39.7 49.6 44.2 63.2
MultiPL-E 20.8 28.5 38.5 50.4
LiveCodeBench 2305-2409 1.6 5.1 4.5 14.8
LiveBench 0831 7.4 12.6 12.4 18.8
IFeval strict-prompt 14.6 27.9 29.0 42.5
模型推理

用户可以通过以下两种方式实现大模型在高通芯片上的推理运行:

许可证
源模型许可证:APACHE-2.0
可部署模型许可证:APLUX-MODEL-FARM-LICENSE
性能参考

设备

AI框架
数据精度
首字响应
编码速度
解码速度
上下文长度
文件大小