在人工智能领域,模型的参数数量是衡量其规模和性能的一个重要指标。以下是一些主流开源模型和闭源模型的等效参数推测,按照参数数量从小到大排列:

小于30B(纯推测)
GPT-5 nano
GPT-4.1 nano

30B
Qwen3 30B A3B2507

30B-60B档(纯推测)
Gemini-2.5-Flash-Lite
Gemini-2.5-Flash-Lite(Sep)
GPT-5 mini
GPT-4.1 mini
GPT-4o mini(未确定,如果是MOE的话)
Claude-3-Haiku(未确定,如果是MOE的话)

60B-80B档(纯推测)
Claude-3.5-Haiku
Grok 3 mini
Grok 4 Fast
Grok 4.1 Fast

80B
Qwen3 Next 80BA3B

80B-100B档
Claude-Haiku-4.5

100B-230B档
Qwen-2.5-Plus(推测,MMLU Pro媲美 llama 405B)

230B档
MiniMax-M2(230B)
Qwen3 235B A22B
Qwen3 235B A22B 2507

300B档
MiMo-V2-Flash(309B)
GLM-4.6(357B)

400B档-500B档
GPT-4.1
GPT-5
GPT-5.1
Claude-Sonnet-4(准确率比3.7 Sonnet差很多)

500B档
Gemini-2.0-Flash(多方面超越了Gemini 1.5 Pro,多模态能出图和语音,对标GPT-4O)
Claude-3.5-Sonnet(全方位对标GPT-4o,不过多模态不行,参数量估计没4o大)
GPT-5.2(可能参数大?因为涨价了?准确率提升了)

600B档
DeepSeek V3(671B)
Mistral Large 3(675B)
DeepSeek V3.2(685B)

700B档
GPT-4o(能到这档次的都有当时顶级的多模态出图,TTS)
Gemini-2.5-Flash(有原生香蕉)
Gemini-2.5-Flash(Sep)
Claude-3.7-Sonnet(知识准确率最高的一代,理论上参数最大?)

800B档
Qwen2.5 Max
Claude-Sonnet-4.5(知识准确率大幅上升,应该能回到3.7的水平)

900B档
Grok 2(905B已开源,全方位对标GPT-4,超数万张H100训练)

1T档
Kimi K2(1T)
Qwen3 Max(应该比Qwen 2.5更大?)

1.5T档
GPT-4 内部演示版(各大专业媒体推测为1.7T,后续上线的那个也许是量化。这种模型满血版,以当时的条件,理论上不可能商用)

1.8T档(最佳算力训练配比法)
Grok 3
Grok 4
Claude Opus 4(不可能比GPT-4差)

2.0T档(纯猜测)
Gemini 2.5 Pro
Claude Opus 4.5(对比Opus 4扩参了)

3.0T档(纯猜测)
GPT-4.5(旧时代的最佳算力训练配比法,在算力提升10倍的情况下,规模应该是GPT-4的2倍,具体不好说,非常低效的模型,也许有3T,但是等效2T)

3.0T档(纯猜测)
Gemini 3 Flash(也许只有1.5T左右,但是等效一流的4T模型)

6.0T档(纯猜测)
Gemini 3 Pro(不说了,感觉是开了外挂,没有参照物,只能参考马斯克了)
Grok 5(来源马斯克直播,这一代是6.0T)

8.0T档(纯推测)
kingfall(懂的都懂)

请注意,以上信息主要基于推测和当前的技术发展情况,实际参数和性能可能会有所不同。随着技术的进步,未来可能会出现更多更大规模的模型。

标签: none

评论已关闭