近日,阿里巴巴推出了其最新的Mixture-of-Experts(MoE)大模型Qwen 2.5-Max,并在多项基准测试中展现了卓越的性能,尤其在与DeepSeek V3的对比中脱颖而出。

Qwen 2.5-Max经过了超过20万亿个token的预训练,并通过了包括监督微调(Supervised Fine-Tuning,SFT)和人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)等尖端技术的精细调优。这一强大的模型现已通过阿里云API向全球开放,用户还可以通过Qwen Chat平台直接与其进行互动,探索其强大的功能。

在与众多知名AI模型的对比测试中,Qwen 2.5-Max的表现尤为抢眼。在评估模型性能的多个基准测试中,如针对大学水平问题解决的MMLU-Pro、评估编程能力的LiveCodeBench、衡量模型综合能力的LiveBench以及评估模型与人类偏好一致性的Arena-Hard等,Qwen 2.5-Max均展现出了出色的性能。阿里巴巴表示,Qwen 2.5-Max在Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond等基准测试中超越了DeepSeek V3,同时在其他评估指标如MMLU-Pro中也取得了具有竞争力的成绩。

Qwen 2.5-Max作为一款专为下游任务(如聊天和编码)设计的指令模型,与GPT-4o、Claude-3.5-Sonnet和DeepSeek V3等领先模型展开了直接竞争。在这些模型中,Qwen 2.5-Max在多个关键领域超越了竞争对手。此外,在与DeepSeek V3、Llama-3.1-405B(最大的开放权重密集模型)和Qwen2.5-72B等领先公开选项的对比中,Qwen 2.5-Max也展现出了全面的卓越性能。

为了使Qwen 2.5-Max更加易于全球用户访问,阿里巴巴已将其集成到Qwen Chat平台上。用户可以在平台上直接与模型进行互动,探索其搜索功能或测试其对复杂查询的理解能力。对于开发者来说,他们现在可以通过阿里云上的“qwen-max-2025-01-25”模型名称访问Qwen 2.5-Max API。用户只需注册一个阿里云账户、激活Model Studio服务并生成API密钥即可开始使用。

值得注意的是,Qwen 2.5-Max的API还与OpenAI生态系统兼容,这使得现有项目和工作流程的集成变得更为简单直接。这一兼容性降低了那些渴望测试其应用程序与模型功能融合度的用户的门槛。

阿里巴巴通过Qwen 2.5-Max向业界发出了强烈的信号。该公司持续致力于扩展AI模型的规模,这不仅是为了提高性能基准,更是为了增强这些系统的基本思维和推理能力。阿里巴巴指出:“数据和模型规模的扩展不仅展示了模型智能的进步,也反映了我们在开创性研究方面的坚定承诺。”

展望未来,阿里巴巴团队旨在推动强化学习的边界,以培养出更高级别的推理技能。他们表示,这将使他们的模型不仅能够匹敌人类智力,还能在解决复杂问题时超越人类。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注