阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o
2024-11-12 / 阅读约2分钟
来源:IT之家
阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

IT之家 11 月 12 日消息,阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。

Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。

IT之家附相关链接如下:

  • Github:https://github.com/QwenLM/Qwen2.5-Coder

  • Huggingface:https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f

  • Modelscope:https://modelscope.cn/organization/qwen

  • 演示:https://huggingface.co/spaces/Qwen/Qwen2.5-Coder-demo