据小易智创xiaoyizc.com(不可错过的AI创业项目)观察:通义千问团队最近宣布开源其令人瞩目的Qwen2.5-Coder全系列,以推动开放代码大语言模型(LLMs)的发展。Qwen2.5-Coder因其强大、多样和实用性而备受关注,尤其是Qwen2.5-Coder-32B-Instruct模型在代码能力方面达到了前所未有的SOTA水平,已经与GPT-4o不分上下,展现出全面的功能,包括代码生成、修复和推理等。它在多个代码生成基准测试中表现出色,在Aider基准测试中获得了73.7的高分,与GPT-4o相当。
Qwen2.5-Coder支持超过40种编程语言,并在McEval上取得了65.9的优异成绩,其中Haskell、Racket等语言的表现尤为突出,这得益于其预训练阶段独特的数据清洗和配比策略。此外,Qwen2.5-Coder-32B-Instruct在多编程语言的代码修复能力上同样表现卓越,在MdEval基准测试中荣获75.2分,稳居第一。
为了验证Qwen2.5-Coder-32B-Instruct在人类偏好上的对齐表现,团队构建了一个内部标注的代码偏好评估基准Code Arena。结果显示,该模型在偏好对齐方面也展现出了显著优势。
此次开源包括0.5B、3B、14B和32B四个尺寸的模型,覆盖了主流六个模型尺寸,以满足不同开发者的需求。官方提供Base和Instruct两种模型,前者作为开发者微调的基础,后者则是官方对齐的聊天模型。模型尺寸与效果之间存在正相关关系,Qwen2.5-Coder在所有尺寸下均取得了SOTA表现。值得一提的是,Qwen2.5-Coder的0.5B、1.5B、7B、14B和32B模型采用Apache2.0许可,而3B模型为Research Only许可。团队通过评估不同尺寸的Qwen2.5-Coder在所有数据集上的表现,进一步验证了Scaling在Code LLMs上的有效性。
Qwen2.5-Coder的开源不仅为开发者提供了强大、多样化且实用的编程模型选择,也将大大推动编程语言模型的发展与应用,开启新的可能性!
总结:Qwen2.5-Coder开启AI编程新时代。