开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
发布时间:2024年06月07日
简介
一觉醒来,Qwen2终于开源了。
Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B),这些模型在中文和英文基础上增加了 27 种语言的高质量数据,并在多个评测基准上展现了优异的性能。Qwen2 系列模型在代码和数学能力上有显著提升,尤其是在长文本处理方面,其中
Qwen2-72B-Instruct 模型能够完美处理 128k 上下文长度内的信息抽取任务。此外,Qwen2 系列模型在安全性方面也进行了改进,通过测试显示其在生成有害响应的比例上优于或与其他模型相当。
模型基础信息
Qwen2系列所有尺寸的模型都使用了GQA,以便让大家体验到GQA带来的推理加速和显存占用降低的优势。针对小模型,由于embedding参数量较大,使用了tie embedding的方法让输入和输出层共享参数,增加非embedding参数的占比。
并且在上下文长度方面,所有的预训练模型均在32K tokens的数据上进行训练。而在使用YARN这类方法时,Qwen2-7B-Instruct和Qwen2-72B-Instruct均实现了长达128K tokens上下文长度的支持。
语言支持
基准测试
相比Qwen1.5,Qwen2在大规模模型实现了非常大幅度的效果提升。在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如Llama-3-70B以及Qwen1.5最大的模型Qwen1.5-110B。
Qwen2-72B-Instruct在16个基准测试中的表现出色,相比Qwen1.5的72B模型,Qwen2-72B-Instruct在所有评测中均大幅超越,并且了取得了匹敌Llama-3-70B-Instruct的表现。
而在小模型方面,Qwen2系列模型基本能够超越同等规模的最优开源模型甚至更大规模的模型。相比近期推出的最好的模型,Qwen2-7B-Instruct依然能在多个评测上取得显著的优势,尤其是代码及中文理解上。
支持的框架
微调(Axolotl、Llama-Factory、Firefly、Swift、XTuner)
量化(AutoGPTQ、AutoAWQ、Neural Compressor)
部署(vLLM、SGL、SkyPilot、TensorRT-LLM、OpenVino、TGI)
本地运行(MLX、Llama.cpp、Ollama、LM Studio)
Agent及RAG(检索增强生成)框架(LlamaIndex, CrewAI, OpenDevin)评测(LMSys, OpenCompass, Open LLM Leaderboard)
模型二次开发(Dolphin, Openbuddy)
ollama部署
ollama run qwen2
One More Thing
Qwen团队还在训练更大的模型,继续探索模型及数据的Scaling Law。此外,还将把Qwen2扩展成多模态模型,融入视觉及语音的理解。敬请期待吧。
更多内容请参考官方博客:
https://qwenlm.github.io/zh/blog/qwen2/
免部署零成本使用
另外如果大家没有相关资源部署,不妨试试以下的大模型竞技场。
此前,知名的lmsys大模型竞技场和司南评测竞技场就已经先后上架了Qwen2-72b-instruct模型。
1、6月3日,CompassArena
司南大模型竞技场上架了Qwen2-72b-instruct,供大家体验试用!
https://opencompass.org.cn/arena
2、早在6月1日,Qwen2-72B-instruct就已经上线lmsys竞技场
https://arena.lmsys.org/
如果你想要了解关于智能工具类的内容,可以查看 智汇宝库,这是一个提供智能工具的网站。
在这你可以找到各种智能工具的相关信息,了解智能工具的用法以及最新动态。
通过GPTder发现和使用GPTs插件。任何人都可以轻松构建自己的GPT。使用GPTs连接到世界。