阿里云发布Qwen25AI模型直指全球顶尖开源竞品

“
阿里云推出新一代 AI 模型 Qwen 2.5,凭借出色的参数规模与性能表现,瞄准 Llama 3.1 等全球领先的开源模型,并计划扩展多模态功能。
阿里云最近发布了其全新一代人工智能模型 Qwen 2.5 系列,这一举措无疑为全球 AI 领域注入了新的活力。此款 AI 模型在多个基准测试中的表现与业内领先的开源模型(如 Llama 3.1)不相上下,成为阿里巴巴人工智能技术布局中的重要一环。
Qwen 2.5 系列不仅在语言任务方面表现突出,还专为编程和数学等专业任务进行了优化。其广泛的参数范围和卓越的多任务处理能力,使其成为全球 AI 市场的重要竞争者。
参数规模与性能对比
Qwen 2.5 系列的模型从 50 亿参数到 720 亿参数不等。阿里巴巴声称,其最大模型 Qwen2.5-72B 在多项 AI 基准测试中,尤其是在 MMLU 测试中的表现优于其他竞品,如 Llama-3.1-70B 和 Mistral-Large-V2。MMLU 测试广泛用于衡量多领域推理能力和模型在复杂任务中的表现。

对于那些追求更小型模型的企业,阿里也推出了 Qwen2.5-14B 和 Qwen2.5-32B。尽管这两款模型的参数规模较小,但其性能与更大型模型(如 Phi-3.5-MoE-Instruct 和 Gemma2-27B-IT)不相上下,这意味着用户可以在不牺牲性能的前提下,选择更加轻量化的模型。
大规模训练数据与多语言支持
Qwen 2.5 系列模型在多达 18 万亿个 tokens 的数据集上训练,并支持超过 29 种语言。相比之下,许多开源模型在数据集覆盖面和语言支持上都无法达到这一水平。阿里巴巴的这一优势为全球用户提供了广泛的语言应用场景,特别是在多语言处理任务中,Qwen 2.5 展现出了强大的适应性。

此外,Qwen 2.5 模型不仅能够处理多达 128,000 个 tokens,还能生成 8,000 个 tokens,这在模型生成长度和处理能力方面处于领先地位。
针对专业领域的优化
阿里云针对不同的应用场景推出了优化版本。例如,Qwen2.5-Coder 专为编程任务设计,并据称在多种编程语言和复杂编程任务上优于其他体积更大的语言模型。尽管 Qwen2.5-Coder 的参数相对较少,但其在实际编程应用中的效率显著,这对开发者群体和软件工程领域具有吸引力。
在数学领域,Qwen2.5-Math 是在其前代 Qwen2-Math 的基础上进一步优化的。阿里巴巴为其加入了额外的数学数据,包括合成数据。报告显示,Qwen2.5-Math-72B-Instruct 在数学基准测试(如 GSM8K、Math 和 MMLU-STEM)中的表现超越了许多主流 AI 模型,包括 GPT-4o、Claude 3.5 Sonnet 和 Llama 3.1 405B 等。
开源与商业化结合
在开源战略上,阿里巴巴选择了部分开源。除 30 亿和 720 亿参数的模型外,Qwen 2.5 系列中的大多数模型都在 Apache 2.0 许可证下开放给全球开发者使用。这意味着开发者可以在现有的技术框架中灵活应用阿里云的 AI 技术,并根据需求对模型进行调整和优化。

与此同时,阿里巴巴还通过 Qwen-Plus 和 Qwen-Turbo 提供了 API 访问权限,使企业可以使用其最强大的模型执行各种任务。这种商业化与开源结合的模式,既为开发者社区提供了技术支持,也为企业级客户提供了更专业的服务。
面向未来的多模态扩展
阿里巴巴并未止步于当前版本的 Qwen 2.5。根据公司透露的未来规划,Qwen 系列将继续发展,尤其是在多模态领域,计划推出能够处理图像和音频数据的更大型模型。这将为用户提供更加多样化的应用场景,例如图像识别、视频处理、甚至音频生成等功能。
在此之前,阿里巴巴已经发布了 Qwen2-VL,一个能够分析长达 20 分钟图像和视频的多模态模型。未来版本的 Qwen 有望在此基础上进一步增强其图像与音频处理能力,满足更广泛的用户需求。
阿里巴巴的 Qwen 2.5 系列不仅在技术能力上达到了国际一流水准,也为未来的 AI 应用提供了更多可能性。所有 Qwen 2.5 系列模型均可在 GitHub 上获取,这一开放策略无疑会吸引更多全球开发者的关注,并为 AI 技术的持续进步提供动力。


共有 0 条评论