IT之家 1 月 29 日新闻,新年之际,阿里云颁布了其全新的通义千问 Qwen 2.5-Max 超年夜范围 MoE 模子,各人能够经由过程 API 的方法停止拜访,也能够登录 Qwen Chat 停止休会,比方直接与模子对话,或许应用 artifacts、搜寻等功效。据先容,通义千问 Qwen 2.5-Max 应用超越 20 万亿 token 的预练习数据及经心计划的后练习计划停止练习。机能阿里云直接对照了指令模子的机能表示(IT之家注:指令模子即咱们平凡应用的能够直接对话的模子)。对照工具包含 DeepSeek V3、GPT-4o 跟 Claude-3.5-Sonnet,成果如下:在 Arena-Hard、LiveBench、LiveCodeBench 跟 GPQA-Diamond 等基准测试中,Qwen2.5-Max 的表示超出了 DeepSeek V3,同时在 MMLU-Pro 等其余评价中也展示出了极具竞争力的成就。在基座模子的对照中,因为无奈拜访 GPT-4o 跟 Claude-3.5-Sonnet 等闭源模子的基座模子,阿里云将 Qwen2.5-Max 与现在当先的开源 MoE 模子 DeepSeek V3、最年夜的开源浓密模子 Llama-3.1-405B,以及同样位列开源浓密模子前线的 Qwen2.5-72B 停止了对照。对照成果如下图所示:咱们的基座模子在年夜少数基准测试中都展示出了明显的上风。咱们信任,跟着后练习技巧的一直提高,下一个版本的 Qwen2.5-Max 将会到达更高的程度。