華為官宣開源盤古7B/72B大模型,寫作能力強勁,性能躋身開源第五
瀟湘 / 2025-06-30 10:5152271今日上午,華為在官方微信公眾號正式官宣開源盤古7B、72B兩款大模型,以及為華為昇騰NPU芯片優化的推理代碼,目前均已在國內代碼托管平臺GitCode正式上線。其中盤古7B(盤古 Embedded)擁有70億參數量,盤古72B(盤古 Pro MoE)則擁有720億參數量。


根據華為官方的介紹,盤古7B模型為雙系統框架,具備“快思慢想”功能,能夠根據任務復雜度自動選擇合適的模式,即在常規請求下使用“快思考”模式,在復雜推理任務下使用“慢思考”模式,從而在延遲和推理深度之間實現平衡。在多款復雜推理測試中,盤古7B的性能要強于阿里巴巴旗下的Qwen3-8B、智譜旗下的GLM4-9B,

盤古72B則為MoE混合專家模型,與一般的MoE模型不同,華為提出了一種新型的分組混合專家模型MoGE,其優點在于可以在專家選擇階段對專家進行分組,約束token在每個組內激活等量專家,進而實現負載均衡。
性能方面,華為聲稱該模型針對昇騰300I Duo、800I A2平臺進行優化,在后者上可以實現單卡1148 token/s的推理速度。


根據SuperCLUE中文大模型基準測評5月的數據,盤古72B在開源排行榜中位列第五,總分為58.75分,超越Qwen3-14B、Qwen3-8B,僅次于DeepSeek-R1滿血版、DeepSeek-V3滿血版以及Qwen3-32B和235B。
值得一提的是,盤古72B的文本理解與創作得分位居榜單之首,為80.48分,但在科學推理能力上僅有39.6分,明顯弱于位居榜單前列的其余模型。

此外,在推理模型榜單中,盤古72B的推理能力得分為60.3,并未有明顯領先優勢。一定程度上說明盤古系列開源模型的推理性能還有待進步。
華為官宣開源盤古7B/72B大模型,寫作能力強勁,性能躋身開源第五














滬公網安備 31010702005758號
發表評論注冊|登錄