2025 年发布的最新开源模型信息

基于你提供的12家公司(OpenAI、DeepSeek、Google、Meta、Mistral AI、微软、xAI、阿里、智谱、百度、腾讯、字节),我将为你详细分析每家公司在2025年发布的最新开源模型信息。考虑到你的24G GPU硬件配置和对推理、文本

基于你提供的 12 家公司(OpenAI、DeepSeek、Google、Meta、Mistral AI、微软、xAI、阿里、智谱、百度、腾讯、字节),我将为你详细分析每家公司在 2025 年发布的最新开源模型信息。考虑到你的 24G GPU 硬件配置和对推理、文本、代码能力的关注,我会重点分析这些模型的性能表现、本地部署适配性以及与 Ollama、LM Studio 的兼容性。

一、OpenAI:GPT-OSS 系列

1.1 模型基础信息

OpenAI 于2025 年 8 月 5 日发布了其自 2019 年以来的首个开源权重语言模型系列 ——GPT-OSS(1)。该系列包含两个版本:

  • GPT-OSS-120B:总参数 1170 亿,每 token 激活 51 亿参数(24)

  • GPT-OSS-20B:总参数 210 亿,每 token 激活 36 亿参数

这两个模型均采用混合专家(MoE)架构,基于 Transformer 构建,使用分组查询注意力(GQA)机制(185)。GPT-OSS-120B 具有 36 层和 128 个专家,每个词元选择前 4 个专家;GPT-OSS-20B 具有 24 层和 32 个专家,每个词元也选择前 4 个专家(185)

1.2 性能表现

在推理能力方面,GPT-OSS 系列表现出色:

  • MMLU:GPT-OSS-120B 得分 90.0%,GPT-OSS-20B 得分 85.3%(301)

  • AIME 2025(带工具):GPT-OSS-120B 达到 97.9%,GPT-OSS-20B 为 98.7%(301)

  • 数学能力:特别擅长数学推理,GPT-OSS-20B 在 AIME 问题上平均使用超过 20K 的 CoT tokens(301)

代码能力方面:

  • HumanEval:GPT-OSS-20B 在高推理模式下达到 72.3% 的准确率(300)

  • Codeforces:GPT-OSS-120B 在无工具模式下达到 2463 Elo 分,带工具模式下达到 2622 Elo 分

1.3 技术特性

GPT-OSS 系列的核心技术创新包括:

  • MoE 架构:采用稀疏前馈神经网络层(专家)和门控机制,每个 token 仅激活参数的一小部分(191)

  • MXFP4 量化:模型经过 MXFP4 量化,使 GPT-OSS-120B 可在单块 80GB GPU 上运行,GPT-OSS-20B 仅需 16GB 内存

  • 可调节推理努力:支持低、中、高三种推理模式,可根据任务复杂度调整

1.4 格式支持与生态兼容性

GPT-OSS 模型支持多种格式:

  • gguf 格式:社区已提供预转换版本(如 unsloth/gpt-oss-20b-gguf)(275)

  • Hugging Face 格式:官方支持直接加载

  • vLLM 支持:原生支持,可实现高效推理

与本地部署工具的兼容性:

  • Ollama:支持 GPT-OSS-20B 和 GPT-OSS-120B 云端模型(285)

  • LM Studio:完全支持,可直接加载运行(280)

1.5 应用场景与优劣势

优势

  • 推理能力接近 OpenAI 的 o4-mini 商用模型(104)

  • 原生支持工具调用、网页浏览和 Python 代码执行(300)

  • 可完全离线运行,保护数据隐私(305)

  • Apache 2.0 许可证,商用免费

劣势

  • 模型容量较大,GPT-OSS-120B 需要 80GB GPU 显存

  • 中文能力相对较弱,更适合英文场景

适合场景

  • 企业级推理应用(GPT-OSS-120B)

  • 边缘设备部署(GPT-OSS-20B)

  • 科研和原型开发

  • 金融、法律等需要高推理能力的行业

二、DeepSeek:V3.2 系列

2.1 模型基础信息

DeepSeek 于2025 年 12 月 1 日发布了 V3.2 系列模型,包含标准版和 Speciale 版本(192)。V3.2 系列基于 9 月 29 日发布的 V3.2-Exp 实验性版本改进而来(197)

核心模型参数:

  • DeepSeek-V3.2:671B 总参数(MoE 架构,激活 37B)(192)

  • DeepSeek-V3.2-Speciale:强化版本,推理能力进一步提升(192)

  • DeepSeek-R1:671B 总参数(MoE 架构,激活 37B),蒸馏版包括 1.5B/7B/14B/32B/70B 等多个尺寸

2.2 性能表现

DeepSeek V3.2 在各项基准测试中表现卓越:

推理能力

  • AIME 2025:V3.2 达到 93.1%,V3.2-Speciale 达到 96.0%,接近 GPT-5 的 94.6%(108)

  • HellaSwag:达到 30.6%,接近 GPT-5-High 水平(193)

  • 在公开推理类 Benchmark 测试中达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro(109)

代码能力

  • LiveCodeBench:表现超越 GPT-5(108)

  • Codeforces:达到 2386 分,与 GPT-5 相当(114)

  • 编程和命令行任务表现优于 GPT-5(108)

效率优势:相比 Kimi-K2-Thinking,在取得相似或更高分数的同时,消耗的 tokens 减少了近 40%-50%(109)

2.3 技术特性

DeepSeek V3.2 的核心技术创新:

  1. DeepSeek 稀疏注意力(DSA)机制
  • 将注意力计算复杂度从 O (L²) 降至 O (L・k)(k≪L)(192)

  • 通过 “闪电索引器” 快速筛选 Top-k 相关 token(192)

  • 显著降低长文本处理的计算成本

  1. 双模式架构
  • 思考模式:支持多轮推理和工具调用

  • 非思考模式:提供高速、通用型响应(198)

  1. 训练创新
  • 构建了包含 1,800 + 环境和 85,000 个复杂任务的合成数据管道(193)

  • 支持最大 160K tokens 的上下文长度

2.4 格式支持与生态兼容性

DeepSeek 模型的格式支持:

  • 原生格式:DeepSeek 自定义格式,支持高效推理

  • gguf 格式:社区正在开发支持,存在一些兼容性问题(269)

  • vLLM 支持:需要 CUDA 12.9 或更高版本(271)

与本地部署工具的兼容性:

  • Ollama:部分支持,需要格式转换(269)

  • LM Studio:需要通过转换工具支持

2.5 应用场景与优劣势

优势

  • 推理能力接近闭源顶级模型(GPT-5、Gemini-3.0-Pro)

  • 长文本处理能力极强(160K tokens)

  • 推理效率高,成本低

  • Apache 2.0 许可证,完全开源

劣势

  • 格式兼容性较差,需要转换

  • 中文优化相对较少

  • 模型容量大,需要高端 GPU 支持

适合场景

  • 长文档分析(法律、学术论文)

  • 复杂推理任务

  • 代码开发和调试

  • 企业级 AI 应用

三、Google:Gemma 3 系列

3.1 模型基础信息

Google 于2025 年 3 月 12 日发布了 Gemma 3 系列模型(16),这是 Google 基于 Gemini 2.0 技术开发的轻量级开源模型家族。

模型系列包括:

  • Gemma 3 基础版:1B/4B/12B/27B 参数规模(21)

  • Gemma 3 270M:2.7 亿参数,专为任务特定微调设计(20)

  • FunctionGemma:270M 参数,针对工具调用优化(318)

  • MedGemma:4B/27B 参数,医疗领域专用版本

3.2 性能表现

Gemma 3 在多项基准测试中表现优异:

推理能力

  • L M ARENA:得分 1338,成为顶级开源紧凑模型(204)

  • 数学能力:显著提升,特别是在算术和代数问题上

  • 指令遵循:Gemma 3 270M 在 IFEval 基准上达到 51.4%(117)

多模态能力

  • 支持视觉语言理解,内置基于 SigLIP 的视觉编码器(199)

  • 支持 896×896 分辨率图像输入

  • 采用 “Pan & Scan” 算法处理不同尺寸图像

3.3 技术特性

Gemma 3 的技术特点:

  1. 架构创新
  • 采用 5:1 交错块设计:5 个局部注意力层(滑动窗口 1024)+ 1 个全局注意力层(199)

  • 支持 128K tokens 上下文窗口(1B 版本为 32K)(201)

  • 使用分组查询注意力(GQA)优化内存使用

  1. 训练方法
  • 预训练 + 后训练结合:蒸馏、RLHF、RLMF、RLEF 四阶段(203)

  • 使用新的分词器支持 140 + 种语言

  • 在 Google TPU 上使用 JAX 框架训练

  1. 量化支持
  • 提供多种量化版本以提高性能

  • 支持 INT4/INT8 量化

3.4 格式支持与生态兼容性

Gemma 3 的格式支持:

  • 原生格式:Google 官方格式

  • gguf 格式:社区支持,已适配(272)

  • Hugging Face:官方支持直接加载

与本地部署工具的兼容性:

  • Ollama:完全支持,已集成到模型调度中(283)

  • LM Studio:全面支持,包括 4 位到全精度各种量化格式(278)

3.5 应用场景与优劣势

优势

  • 支持多模态(文本 + 图像)

  • 模型尺寸小,适合边缘部署

  • 支持 140 + 种语言

  • 可完全离线运行,无云服务成本

  • 支持 Google AI Edge,适合移动端部署(313)

劣势

  • 推理能力相比大型模型较弱

  • 中文能力有待提升

  • 需要接受 Google 的使用条款

适合场景

  • 移动应用和边缘设备

  • 多语言处理

  • 实时翻译

  • 轻量级对话系统

  • 图像理解和描述

四、Meta:Llama 3.3

4.1 模型基础信息

Meta 于2025 年 12 月 6 日发布了 Llama 3.3,这是一个令人意外的发布,标志着开源模型的重大进步(30)

Llama 3.3 的核心信息:

  • 参数规模:70B 参数(仅为 Llama 3.1 405B 的 1/6)(29)

  • 架构:基于 Transformer,使用分组查询注意力(GQA)(210)

  • 上下文长度:支持 128K tokens(207)

  • 训练数据:使用 15 万亿 tokens,比前代增加 50%(29)

4.2 性能表现

Llama 3.3 在保持较小参数规模的同时,实现了卓越的性能:

推理能力

  • MMLU(0-shot, CoT):得分 86.0,与 Llama 3.1 70B 持平,略低于 Llama 3.1 405B 的 88.6 和 GPT-4o 的 87.5(324)

  • 数学基准:达到 77.0 分,显著高于 Llama 3.1 70B 的 67.8(128)

代码能力

  • HumanEval:达到 88.4 分,可与 Gemini Pro 1.5 媲美(128)

  • 在代码生成、调试和优化方面表现出色(212)

指令遵循

  • IFEval:达到 92.1 分,超越 GPT-4o 的 84.5(128)

4.3 技术特性

Llama 3.3 的技术特点:

  1. 效率优先设计
  • 专注于文本处理,去除了多模态功能以提高效率

  • 相同性能下成本降低 25 倍(125)

  1. 架构优化
  • 采用 “瘦而深” 的设计理念

  • 使用 GQA 机制减少 KV 缓存占用

  • 支持 128K tokens 上下文

  1. 训练创新
  • 使用迭代在线 RPO(NVIDIA, 2024c; Sun et al., 2025)最大化奖励(209)

  • 结合监督微调(SFT)和人类反馈强化学习(RLHF)(324)

4.4 格式支持与生态兼容性

Llama 3.3 的格式支持:

  • gguf 格式:官方支持,是 GGUF 格式的主要推动者之一(272)

  • Hugging Face:官方支持

  • 多种量化:支持 4 位到全精度各种量化格式

与本地部署工具的兼容性:

  • Ollama:完全支持,已集成(284)

  • LM Studio:全面支持,包括各种量化版本(278)

4.5 应用场景与优劣势

优势

  • 70B 参数实现 405B 级别性能

  • 成本效益极高(比 GPT-4o 便宜 25 倍)

  • 支持长上下文(128K)

  • 多语言能力强

  • 商业使用友好(需要申请许可证)

劣势

  • 需要申请商业使用许可

  • 模型容量仍然较大,需要至少 48GB GPU

  • 中文优化有限

适合场景

  • 企业级应用(内容生成、客户服务)

  • 研究和开发

  • 多语言处理

  • 长文档分析

  • 代码开发辅助

五、Mistral AI:多系列模型

5.1 模型基础信息

Mistral AI 在 2025 年发布了多个重要模型系列:

  1. Mistral Small 3(2025 年 1 月 30 日):
  • 24B 参数,延迟优化模型(36)

  • Apache 2.0 许可证

  1. Devstral 2 系列(2025 年 12 月):
  • Devstral 2:123B 参数

  • Devstral Small 2:24B 参数(37)

  • 专为代码生成和理解优化

  1. Codestral 系列(2025 年 7 月底):
  • 专注于低延迟、高频代码任务

  • 支持 FIM(填充中间)、代码纠正和测试生成(41)

  1. Magistral 系列(2025 年 7 月):
  • Magistral Medium 1.1:前沿推理模型(42)

5.2 性能表现

Mistral AI 模型在各自领域表现卓越:

代码能力

  • Devstral 2:在 SWE-Bench Verified 上达到 72.2%,超过许多开源模型(133)

  • Codestral:在代码生成、重构、调试等任务中表现优异(328)

  • 在编程基准测试中超过 6 个百分点的提升(131)

推理能力

  • Magistral Small:在推理任务上达到 70.7% 和 83.3% 的准确率(135)

  • 支持跨语言的链式思考

通用性能

  • MT Bench:Mistral Small 3.1 得分 8.63

  • Wild Bench:56.3 分

  • Arena Hard:73.2 分(132)

5.3 技术特性

Mistral AI 的技术创新:

  1. 混合专家(MoE)架构
  • Mixtral 系列采用稀疏混合专家(SMoE)设计(219)

  • 每个 token 激活多个专家,实现高效推理

  • 8×7B 版本有 8 个专家组(218)

  1. 架构优化
  • 使用旋转位置编码(theta = 1M)(214)

  • 40 层网络,维度 5,120

  • 支持 256K tokens 上下文(部分模型)

  1. 领域专用优化
  • Devstral 专门针对代码任务优化

  • Magistral 专注于推理能力

  • Codestral 针对低延迟代码生成优化

5.4 格式支持与生态兼容性

Mistral 模型的格式支持:

  • gguf 格式:全面支持,是 GGUF 生态的重要组成部分(272)

  • 原生格式:Mistral 自定义格式

  • Hugging Face:官方支持

与本地部署工具的兼容性:

  • Ollama:完全支持,包括 Mistral 7B、Mixtral 系列等(284)

  • LM Studio:全面支持,包括各种量化版本(278)

5.5 应用场景与优劣势

优势

  • 代码生成能力极强,适合开发者

  • 支持多种架构(MoE、密集)

  • 开源协议友好(Apache 2.0)

  • 推理效率高

  • 多语言支持良好

劣势

  • 模型容量较大,需要高端 GPU

  • 中文优化相对较少

  • 部分模型(如 Magistral)已弃用

适合场景

  • 软件开发(代码生成、调试、重构)

  • 代码教育和培训

  • 企业级代码审查

  • 推理任务(Magistral 系列)

  • 通用文本生成

六、微软:Phi 系列

6.1 模型基础信息

微软在 2025 年发布了多个 Phi 系列模型:

  1. Phi-4 基础版(2025 年 4 月 15 日):
  • 包含 Mini(3.8B)、Medium(7B)、Large(14B)三个版本(48)

  • 基于解码器的 Transformer 架构

  1. Phi-4 推理系列(2025 年 5 月):
  • Phi-4-Reasoning:14B 参数

  • Phi-4-Reasoning-Plus:增强版本(226)

  • 在数学和科学推理上提升超过 50%(335)

  1. Phi-4-mini-flash-reasoning(2025 年 7 月):
  • 专为推理任务优化的紧凑型模型(221)
  1. Phi-4-multimodal(2025 年 8 月):
  • 支持文本、图像和音频输入(224)

6.2 性能表现

Phi 系列在小参数模型中表现突出:

推理能力

  • AIME 2025:Phi-4-Reasoning-Plus 达到 78 分,显著高于 DeepSeek-R1 的 70.4 分(138)

  • 哈佛 – 麻省理工数学竞赛:Phi-4-Reasoning-Plus 得分 53.6,领先 R1 的 41.7 分(138)

  • MMLU:Phi-4 Large 达到 88.1 分(141)

代码能力

  • HumanEval:Phi-4 达到 82.6 分(141)

  • LiveCodeBench:提升超过 25%(335)

数学能力

  • Math 500:Phi-4-mini-flash-reasoning 达到 92.45% 的 pass@1 准确率(140)

  • 在数学问题解决上表现优异

6.3 技术特性

Phi 系列的技术特点:

  1. 架构创新
  • Phi-4-mini 采用 200K 词汇表、分组查询注意力(GQA)和共享输入输出嵌入(223)

  • 使用 LongRoPE 支持 128K 上下文长度(222)

  • 24 个查询头和 8 个键值头,将 KV 缓存减少到标准的 1/3

  1. 推理优化
  • Phi-4-mini-flash-reasoning 结合了 Mamba(状态空间模型)和滑动窗口注意力(SWA)(221)

  • 专为数学推理设计,训练了超过 100 万个数学问题

  1. 多模态支持
  • Phi-4-multimodal 支持文本、图像和音频输入

  • 基于 Phi-4-mini 作为骨干语言模型

6.4 格式支持与生态兼容性

Phi 系列的格式支持:

  • gguf 格式:社区支持,已适配(272)

  • Hugging Face:官方支持

  • ONNX 格式:优化了推理性能

与本地部署工具的兼容性:

  • Ollama:支持 Phi 系列模型

  • LM Studio:全面支持,包括各种量化版本(278)

6.5 应用场景与优劣势

优势

  • 小参数实现高性能(14B 达到 70B 级别性能)

  • 推理能力极强,特别是数学推理

  • 支持长上下文(128K)

  • 适合边缘部署

  • MIT 许可证,商用友好

劣势

  • 模型规模仍然较大(最小 3.8B)

  • 中文能力需要进一步优化

  • 多模态功能有限

适合场景

  • 教育应用(数学辅导、编程教学)

  • 边缘设备推理

  • 实时数学问题解决

  • 轻量级代码开发

  • 嵌入式 AI 应用

七、xAI:Grok 3 系列

7.1 模型基础信息

xAI(埃隆・马斯克的公司)在 2025 年发布了 Grok 3 系列:

  1. Grok 3 Beta(2025 年 2 月 17 日):
  • 314B 总参数(MoE 架构)

  • 激活参数约 30B

  • 支持 128K tokens 上下文(148)

  1. Grok 3 Reasoning Beta
  • 推理优化版本

  • AIME 2025 得分 93 分(143)

  1. Grok 3 Mini
  • 精简版本

  • AIME 2025 得分 90 分(143)

7.2 性能表现

Grok 3 在多项基准测试中表现优异:

推理能力

  • AIME 2025:Reasoning Beta 版本达到 93 分,Mini 版本 90 分(143)

  • 在数学推理任务中超越多个竞争对手

代码能力

  • LiveCodeBench:Grok 3 (Think) 达到 79.4%(145)

  • HumanEval:达到 86.5%,接近 GPT-4 水平(149)

  • Codeforces:达到 1402 Elo 分(146)

综合性能

  • 在 Chatbot Arena 评估中达到 1402 分,位于顶级模型行列(146)

  • 平均响应延迟仅 67 毫秒(227)

7.3 技术特性

Grok 3 的技术特点:

  1. 混合架构
  • 结合 Transformer 神经网络与强化学习技术(227)

  • 采用 MoE 架构,大幅降低推理时的计算需求

  1. 处理能力
  • 实现 1.5 petaflops 的处理能力(227)

  • 相比前代准确率提升 20%

  • 能耗降低 30%

  1. 独特功能
  • Think 模式:支持逐步推理过程,类似人类结构化思维(232)

  • 推理努力参数:支持低 / 高推理级别调整(233)

  • 支持结构化输出和函数调用(229)

7.4 格式支持与生态兼容性

Grok 3 的格式支持:

  • 原生格式:xAI 自定义格式

  • gguf 格式:社区正在开发支持

  • Hugging Face:部分支持

与本地部署工具的兼容性:

  • Ollama:需要格式转换支持

  • LM Studio:有限支持

7.5 应用场景与优劣势

优势

  • 推理能力极强,特别是数学推理

  • 响应速度快(67 毫秒)

  • 支持 Think 模式,可展示推理过程

  • Apache 2.0 许可证,商用友好

劣势

  • 模型容量极大(314B),需要超高端 GPU

  • 格式兼容性有限

  • 中文优化不足

适合场景

  • 高端研究和开发

  • 复杂推理任务

  • 数学和科学计算

  • 企业级 AI 应用(需要极强推理能力)

八、阿里巴巴:Qwen 3 系列

8.1 模型基础信息

阿里巴巴于2025 年 4 月 29 日发布了 Qwen 3 系列模型(56),随后在 7 月 23 日发布了 Qwen3-Coder(57),9 月 11 日发布了 Qwen3-Next(62)

Qwen 3 系列包括:

  1. Qwen 3 基础系列
  • 6 个密集模型:0.6B、1.7B、4B、8B、14B、32B 参数

  • 2 个 MoE 模型:30B 总参数(激活 3B)、235B 总参数(激活 22B)(56)

  1. Qwen3-Next(2025 年 9 月 11 日):
  • 800 亿总参数,激活 30 亿参数

  • 支持 26 万 + tokens 上下文(62)

  1. Qwen3-235B-A22B-Thinking-2507(2025 年 7 月 25 日):
  • 思考模型升级版

  • 性能可比肩 Gemini-2.5 Pro、O4-mini 等闭源模型(57)

8.2 性能表现

Qwen 3 系列在多项基准测试中创造了开源模型新纪录:

推理能力

  • AIME25:Qwen 3 达到 81.5 分,刷新开源纪录(150)

  • 数学推理:在多个数学基准测试中表现优异

代码能力

  • LiveCodeBench:突破 70 分大关,超过 Grok 3(150)

  • SWE-Bench Verified:Qwen3-Max 达到 69.6 分,位列全球第一梯队(152)

综合能力

  • ArenaHard:Qwen 3 以 95.6 分超越 OpenAI-o1 及 DeepSeek-R1(150)

  • Tau2-Bench:Qwen3-Max 达到 74.8 分,超过 Claude Opus4 和 DeepSeek-V3.1(152)

  • Chatbot Arena:综合排名全球前三(235)

8.3 技术特性

Qwen 3 的核心技术创新:

  1. 混合推理架构
  • 首次将传统 LLM 能力与动态推理能力无缝集成(236)

  • 支持 “思考模式” 与 “非思考模式” 无缝切换

  • 思考模式:专攻数学、编程及逻辑推理

  • 非思考模式:提供高速、通用型响应

  1. MoE 架构优化
  • Qwen3-Next 采用 512 个路由专家和 1 个共享专家,每个 Token 激活 10 个专家(190)

  • 48 层网络结构,每 4 层使用分组查询注意力(GQA)

  • 其余 3 层使用新型线性注意力机制

  1. 训练创新
  • 预训练数据量达 36T tokens(57)

  • 后训练阶段经过多轮强化学习

  • 采用混合注意力机制与高稀疏度 MoE 结构

  1. 效率突破
  • 80B 总参数仅激活 3B 即可媲美 235B 模型(235)

  • 训练成本较前代降低 90%

  • 长文本吞吐量提升 10 倍以上

8.4 格式支持与生态兼容性

Qwen 3 的格式支持:

  • gguf 格式:社区支持,已适配(272)

  • Hugging Face:官方支持

  • 原生格式:支持高效推理

与本地部署工具的兼容性:

  • Ollama:完全支持,已集成(qwen3 系列)(283)

  • LM Studio:支持,需要转换

8.5 应用场景与优劣势

优势

  • 多项性能指标创造开源模型新纪录

  • 混合推理架构,适用场景广泛

  • 支持超长上下文(26 万 + tokens)

  • 推理效率极高,成本低

  • Apache 2.0 许可证,完全开源

劣势

  • 模型容量较大,需要高端 GPU

  • 中文优化相对较少(主要针对英文)

  • 部分功能(如多模态)需要额外版本

适合场景

  • 长文档分析(法律、学术)

  • 复杂推理任务

  • 代码开发和审查

  • 企业级 AI 应用

  • 智能客服和内容生成

九、智谱 AI:GLM-4.5 系列

9.1 模型基础信息

智谱 AI 于2025 年 7 月 28 日发布了 GLM-4.5 系列模型(63),这是该公司的旗舰开源模型系列。

GLM-4.5 系列包括:

  • GLM-4.5:3550 亿总参数,激活 320 亿参数(63)

  • GLM-4.5-Air:1060 亿参数,激活 120 亿参数(63)

  • 均采用 MoE 架构和双推理模式

9.2 性能表现

GLM-4.5 系列在多项权威基准测试中表现卓越:

综合能力

  • 在 12 项行业基准测试中以 63.2 分排名第三,超越多款闭源模型(159)

  • GLM-4.5-Air 以 59.8 分排名第六(157)

推理能力

  • AIME 24:GLM-4.5 达到 91.0%(158)

  • 在数学和科学推理任务中表现优异

代码能力

  • LiveCodeBench:GLM-4.5-Air 达到 70.7 分,仅落后 GPT-4.1 9.4 分(157)

  • SWE-Bench Verified:达到 64.2%(158)

智能体能力

  • TAU-bench:达到 70.1%(158)

  • 在真实世界智能体基准测试中达到 90.6% 成功率(247)

9.3 技术特性

GLM-4.5 的技术创新:

  1. MoE 架构
  • 采用损失 – free 平衡路由和 sigmoid 门控技术(241)

  • “高瘦” 设计理念:增加深度而非宽度(243)

  • 每层 96 个注意力头(242)

  1. 训练优化
  • 使用 Muon 优化器,加速收敛并容忍更大批量大小(241)

  • 基于大规模语料库预训练

  1. 双模式处理
  • 支持思考模式和非思考模式

  • 可根据任务复杂度自动切换

  1. 多任务能力
  • 原生支持推理、编码和智能体能力

  • 支持工具调用和函数执行

9.4 格式支持与生态兼容性

GLM-4.5 的格式支持:

  • Hugging Face:官方支持

  • gguf 格式:社区支持

  • 支持 INT4/INT8 量化

与本地部署工具的兼容性:

  • Ollama:需要格式转换支持(Ollama 尚不支持分片模型)(67)

  • LM Studio:支持,但需要转换

9.5 应用场景与优劣势

优势

  • 小参数实现大能力(1060 亿参数接近 GPT-4 水平)

  • 推理、代码、智能体能力均衡

  • 支持多任务处理

  • MIT/Apache 2.0 双重许可证

劣势

  • 模型容量较大,需要高端 GPU

  • 中文优化有限(主要针对英文)

  • 格式兼容性需要改进

适合场景

  • 通用 AI 助手

  • 代码开发和审查

  • 智能体开发

  • 学术研究

  • 企业级应用

十、百度:ERNIE 4.5 开源版

10.1 模型基础信息

百度于2025 年 6 月 30 日正式开源 ERNIE 4.5 系列模型(71),随后在 11 月 11 日开源了多模态版本 ERNIE-4.5-VL-28B-A3B-Thinking(70)

ERNIE 4.5 开源系列包括:

  1. 文本模型
  • ERNIE-4.5-300B-A47B:3000 亿总参数,激活 470 亿参数

  • ERNIE-4.5-21B-A3B:210 亿总参数,激活 30 亿参数

  • ERNIE-4.5-0.3B:3 亿参数的轻量版本

  1. 多模态模型
  • ERNIE-4.5-VL-28B-A3B:280 亿总参数,激活 30 亿参数(71)

10.2 性能表现

ERNIE 4.5 在多项基准测试中展现出强大实力:

推理能力

  • 在 28 个基准测试中的 22 个超越 DeepSeek-V3-671B(164)

  • 特别在泛化能力、推理和知识密集型任务上优势明显

数学能力

  • GSM8K:达到 96.6 分(252)

  • 在 MATH-500、CMath 等数学基准测试中均取得最高分

指令遵循

  • IFEval:达到 88.0 分

  • Multi-IF:达到 76.6 分(252)

多模态能力

  • 仅需 3B 激活参数,性能接近 GPT-5-High 与 Gemini-2.5-Pro(170)

10.3 技术特性

ERNIE 4.5 的核心技术创新:

  1. 异构 MoE 架构
  • 首创多模态异构 MoE 结构,包含 64 个文本专家、64 个视觉专家和 2 个共享专家(248)

  • 通过模态隔离路由机制,文本 token 仅由文本专家处理,视觉 token 由视觉专家处理

  • 每 token 动态激活 6 个文本专家和 6 个视觉专家

  1. 量化技术
  • 采用卷积码量化技术,支持 4 位 / 2 位无损压缩(249)

  • 在精度损失 < 1% 的情况下将显存占用减少 70%

  • 实现业内首个 2-bit 无损量化(253)

  1. 训练优化
  • 基于飞桨(PaddlePaddle)框架构建异构混合并行系统

  • 结合 FP8 混合精度训练和细粒度重计算技术

  • 实现每秒 384 万亿次运算(384 TFLOPS)的训练吞吐量(250)

  1. 部署优化
  • W4A8C8 量化版本仅需 4 卡 GPU 部署

  • 2-bit 量化版本可在单卡 141G GPU 上运行(249)

10.4 格式支持与生态兼容性

ERNIE 4.5 的格式支持:

  • 原生格式:基于飞桨框架

  • 部分 gguf 支持:社区正在开发

  • 支持多种量化格式

与本地部署工具的兼容性:

  • Ollama:有限支持,需要转换

  • LM Studio:支持,但需要适配

10.5 应用场景与优劣势

优势

  • 多项性能超越 DeepSeek 等主流模型

  • 异构 MoE 架构支持多模态

  • 量化技术领先,部署成本低

  • 中文理解能力强(针对中文优化)

  • Apache 2.0 许可证(部分版本)

劣势

  • 主要针对中文,英文能力相对较弱

  • 基于飞桨框架,生态兼容性有限

  • 模型容量大,需要高端 GPU

适合场景

  • 中文自然语言处理

  • 多模态理解(文本 + 图像)

  • 知识密集型任务

  • 企业级中文应用

  • 长文本处理

十一、腾讯:混元开源版

11.1 模型基础信息

腾讯在 2025 年开源了多个混元系列模型:

  1. 混元翻译模型 1.5(2025 年 9 月 1 日):
  • 包括 1.8B 等多个参数规模版本(171)
  1. 混元 OCR 模型(2025 年 11 月):
  • 仅 1B 参数

  • 在复杂文档解析的 OmniDocBench 测评中获得 94.1 分(175)

  1. 混元 3D 系列(2025 年):
  • 3D 生成模型,首个全链路开源的工业级 3D 生成大模型(79)
  1. 混元图像 3.0(2025 年 9 月 28 日):
  • 80B 参数,原生多模态生图模型(77)
  1. Hunyuan-A13B(2025 年 6 月 27 日):
  • 80B 总参数,激活 13B 参数

  • 业界首个 13B 级别的 MoE 开源混合推理模型(257)

11.2 性能表现

腾讯混元开源模型在各自领域表现突出:

翻译能力

  • WMT2025:HY-MT1.5-1.8B 以平均高出第二名 11.2% 的分数拿下 30 个第一(172)

  • 英语→简体中文:HumanEval 评分达 87.2 分,超越 140 亿参数的 Wenyiil 模型 3 分(172)

  • 在 FLORES-200 质量评估中取得约 78% 的分数(174)

OCR 能力

  • OmniDocBench:获得 94.1 分,超过 Gemini3-pro 等领先模型(175)

  • OCRBench:总得分为 860 分,以 1B 参数取得 3B 以下模型 SOTA 成绩

智能体能力

  • BFCL-v3:达到 78.3 分,较同类模型提升 10.6%(173)

11.3 技术特性

腾讯混元的技术创新:

  1. 翻译模型优化
  • 采用优化的模型设计和推理逻辑

  • 平均响应时间仅 0.18 秒,超越主流商用翻译 API(174)

  • 支持 33 种语言翻译

  1. OCR 技术
  • 支持 9 大应用场景(文档、艺术字、街景、手写等)

  • 文字检测和识别能力大幅领先同类模型

  1. MoE 架构
  • Hunyuan-A13B 采用混合推理 MoE 架构

  • 在 Agent 工具调用和长文能力上有突出表现

  • 构建了适用于 MoE 架构的 Scaling Law 联合公式(261)

  1. 3D 生成技术
  • 首个全链路开源的工业级 3D 生成大模型

  • 实现秒级资产生成

  • V2.5 模型精度提升超 10 倍

11.4 格式支持与生态兼容性

腾讯混元的格式支持:

  • 原生格式:腾讯自定义格式

  • 部分 gguf 支持:社区支持有限

  • Docker 镜像支持:提供预构建的 Docker 镜像,包含 vLLM 0.8.5(261)

与本地部署工具的兼容性:

  • Ollama:有限支持

  • LM Studio:需要转换支持

11.5 应用场景与优劣势

优势

  • 翻译能力极强,超越商用 API

  • OCR 能力达到 SOTA 水平

  • 支持多模态(图像、3D、文本)

  • 推理效率高,响应速度快

  • 部分模型参数小,适合边缘部署

劣势

  • 主要针对特定领域(翻译、OCR、3D)

  • 生态兼容性有限

  • 中文优化为主

适合场景

  • 多语言翻译

  • OCR 和文档处理

  • 3D 内容生成

  • 智能客服

  • 企业级本地化应用

十二、字节跳动:Seed-OSS 系列

12.1 模型基础信息

字节跳动于2025 年 8 月 20 日正式发布 Seed-OSS 开源模型系列(92),这是其豆包大模型团队的开源版本。

Seed-OSS 系列包括:

  • Seed-OSS-36B-Base:含合成数据版本

  • Seed-OSS-36B-Base-woSyn:不含合成数据版本

  • Seed-OSS-36B-Instruct:指令微调版本(262)

12.2 性能表现

Seed-OSS 在多个基准测试中达到开源模型最好水平:

推理能力

  • AIME24:Instruct 版本达到 91.7%(183)

  • BeyondAIME:达到 65 分(183)

  • MMLU-Pro:Base 版本达到 65.1 分,超越 Qwen2.5-32B 11.3%(181)

数学能力

  • GSM8K:达到 90.8 分

  • MATH:达到 81.7 分(181)

代码能力

  • LiveCodeBench v6:Instruct 版本达到 67.4 分,刷新 SOTA 纪录(181)

  • HumanEval:达到 76.8 分

  • MBPP:达到 80.6 分(181)

综合能力

  • 在推理、智能体及通用性能方面进行了专门强化

  • 在使用工具、解决问题等智能体任务中表现出色

12.3 技术特性

Seed-OSS 的核心技术特点:

  1. 超长上下文支持
  • 原生支持高达 512K tokens 长上下文(92)

  • 业界领先的上下文处理能力

  1. 可控推理技术
  • 首创可控推理长度技术,通过 thinking_budget 参数动态调整(264)

  • 允许用户根据需要灵活调整推理长度

  • 提高模型在实际应用场景中的推理效率

  1. 架构设计
  • 36B 参数的稠密 Transformer 架构,64 层网络,隐藏维度 5120(266)

  • 采用分组查询注意力(GQA),80 个查询头和 8 个键值头

  • 使用旋转位置编码(RoPE),基频参数从常规的 1×10⁴提升至 1×10⁷(266)

  • 激活函数:SwiGLU

  • 归一化:RMSNorm

  1. 训练数据
  • 使用 12T tokens 进行训练

  • 提供含合成数据和不含合成数据两个版本,为研究提供更多选择

12.4 格式支持与生态兼容性

Seed-OSS 的格式支持:

  • Hugging Face:官方支持

  • gguf 格式:社区已提供预转换版本(如 unsloth/seed-oss-36b-instruct-gguf)(296)

  • 支持 vLLM、llama.cpp 和标准 PyTorch 实现(298)

与本地部署工具的兼容性:

  • Ollama:需要格式转换

  • LM Studio:支持,但需要转换

12.5 应用场景与优劣势

优势

  • 支持业界最长的 512K 上下文

  • 可控推理技术,灵活性高

  • 推理、代码、智能体能力均衡

  • 提供多种训练版本(含 / 不含合成数据)

  • Apache 2.0 许可证,商用友好

劣势

  • 模型容量大(36B),需要高端 GPU

  • 中文优化有限

  • 格式转换需求

适合场景

  • 超长文档处理(如书籍、论文)

  • 复杂推理任务

  • 代码开发和审查

  • 智能体开发

  • 学术研究

十三、24G GPU 本地部署综合分析

基于你的 24G GPU 配置,我将重点分析哪些模型最适合本地部署,并提供详细的部署建议。

13.1 可直接部署的模型(24G GPU)

第一梯队(推荐)

  1. Google Gemma 3 系列
  • 1B 版本仅需 529MB,可直接在 24G GPU 上运行(313)

  • 4B 版本通过 INT4 量化后约 4-5GB 显存

  • 支持 Ollama 和 LM Studio 直接加载

  1. 微软 Phi 系列
  • Phi-4 Mini(3.8B)通过 INT4 量化后约 4GB

  • Phi-4 Medium(7B)通过 INT4 量化后约 7-8GB

  • 支持 gguf 格式,可直接在 LM Studio 运行

  1. Mistral Small 系列
  • Mistral Small 3(24B)通过 INT4 量化后约 24GB

  • 刚好在 24G GPU 边缘,建议使用 INT8 量化以确保稳定

第二梯队(需要优化)

  1. Meta Llama 3.3
  • 70B 模型需要至少 48GB GPU,24G GPU 无法直接运行

  • 建议等待更小版本或使用量化工具转换

  1. OpenAI GPT-OSS-20B
  • 21B 参数,通过 INT4 量化后约 21GB

  • 刚好在 24G GPU 范围内,但需要优化设置

  • 支持 Ollama 和 LM Studio

  1. 阿里 Qwen 3 系列
  • Qwen 3 8B 版本通过 INT4 量化后约 8-9GB

  • Qwen 3 14B 版本通过 INT4 量化后约 14-15GB

  • 支持 Ollama 直接加载

13.2 部署优化建议

  1. 量化策略
  • 优先使用 INT4 量化,可减少 75% 显存占用

  • 对于大模型(>10B),使用 INT8 量化以保持精度

  • 避免使用 FP16,会占用过多显存

  1. 推理参数优化
  • Batch size 设置为 1-4

  • 上下文长度根据模型能力设置(建议不超过 8K tokens)

  • 使用流式输出减少内存占用

  1. 工具选择
  • 首选 LM Studio:支持模型自动量化和优化

  • 次选 Ollama:需要模型支持,但部署简单

  • 直接使用 vLLM:需要技术基础,但效率最高

  1. 模型推荐(按场景)
  • 通用对话:Gemma 3 4B / Phi-4 Medium

  • 代码开发:Mistral Small 3 / Qwen 3 8B

  • 数学推理:Phi-4 Reasoning / Seed-OSS(需要更大 GPU)

  • 多模态:Gemma 3 12B(支持图像)

13.3 性能预期

在 24G GPU 上,你可以期望:

  • 小模型(<4B)

    • 推理速度:50-200 tokens / 秒

    • 支持上下文:8K-16K tokens

    • 可同时处理 1-2 个并发请求

  • 中等模型(4B-10B)

    • 推理速度:20-50 tokens / 秒

    • 支持上下文:4K-8K tokens

    • 仅支持 1 个并发请求

  • 大模型(>10B)

    • 推理速度:10-20 tokens / 秒

    • 支持上下文:2K-4K tokens

    • 需要 INT4 量化和优化设置

13.4 成本效益分析

模型 量化后显存占用 推理速度 年成本(电费) 适合场景
Gemma 3 1B 1GB 100 tokens/s \$50 轻量级任务
Phi-4 Mini 4GB 60 tokens/s \$80 通用任务
Mistral Small 3 (INT8) 12GB 30 tokens/s \$120 代码任务
GPT-OSS-20B (INT4) 21GB 20 tokens/s \$150 推理任务

十四、总结与选型建议

基于以上分析,针对你的 24G GPU 配置和对推理、文本、代码能力的需求,我给出以下综合建议:

14.1 最佳选择(按优先级)

首选:Google Gemma 3 系列

  • 模型小,性能强,支持多模态

  • 完美适配 24G GPU

  • 支持 Ollama 和 LM Studio 直接加载

  • 适合通用场景和多模态任务

次选:微软 Phi 系列

  • 推理能力强,特别是数学推理

  • 模型尺寸适中,量化后可在 24G GPU 运行

  • MIT 许可证,商用友好

  • 适合需要强推理能力的场景

备选:Mistral Small 系列

  • 代码能力突出

  • 支持多种格式

  • 需要 INT8 量化以适配 24G GPU

  • 适合代码开发场景

14.2 进阶选择(如果 GPU 可升级)

如果未来你考虑升级到 48G 或更高 GPU,我推荐:

  • 综合性能:Meta Llama 3.3(70B)

  • 推理能力:OpenAI GPT-OSS-120B

  • 代码能力:Mistral Devstral 2

  • 长文本:ByteDance Seed-OSS-36B

  • 多模态:Google Gemma 3 27B

14.3 部署工具建议

  1. 新手推荐:LM Studio
  • 图形界面友好

  • 自动模型优化

  • 支持多种格式

  1. 进阶用户:Ollama
  • 命令行简洁

  • 支持模型流

  • 适合脚本集成

  1. 技术专家:直接使用 vLLM
  • 性能最优

  • 可自定义优化

  • 需要技术基础

14.4 长期发展建议

  1. 关注模型更新:这些模型都在快速迭代,建议定期关注新版本

  2. 尝试不同模型:根据具体任务选择最适合的模型

  3. 优化推理参数:通过调整参数获得最佳性能

  4. 考虑云服务:对于计算密集型任务,可考虑云 GPU 服务

希望这份详细的分析能够帮助你选择和部署最适合的开源大语言模型。如果你有特定的应用场景需求,可以进一步告诉我,我会提供更针对性的建议。

发表评论