【香港訊】阿里巴巴雲端正式宣布 Qwen3.5 模型的發布,呢個消息喺2026年2月嘅科技界可以話掀起咗一場小型風暴。作為阿里巴巴喺人工智能領域嘅旗艦產品,Qwen3.5 唔單止延續咗之前版本嘅優勢,仲喺多個關鍵範疇嚟咗一次全面升級,足以話係近年嚟最具影響力嘅開源大語言模型之一。

397B-A17B MoE 架構: efficiency 同效能嘅完美平衡

Qwen3.5 最令人矚目嘅特點,莫過於佢採用咗 397B-A17B 嘅 MoE(Mixture of Experts,專家混合模型)架構。咁意味啲咩呢?簡單啲嚟講,MoE 架構就好似一個分工明確嘅大型團隊,唔同嘅「專家」負責處理唔同類型嘅問題,但係唔同時間只有部分專家需要「上班」工作。呢個設計令到模型喺保持極高總參數量嘅同時,大幅降低咗實際運算時嘅資源消耗。

具體嚟講,3970億參數嘅總規模,但係通過 MoE 架構嘅智能調度,实际运行时只激活其中約170億參數相關嘅計算,這個數字對比其他同級別模型,可以話係相當高效咁控制咗運算成本同反應速度。對於企業用戶嚟講,呢個意味着可以喺相對合理嘅硬件配置下,獲得接近超大規模模型嘅智能表現。

💡 核心數據一覽

  • 總參數量:3970億(397B)
  • 激活參數:170億(17B)
  • 架構類型:MoE(專家混合模型)
  • 開源許可:Apache 2.0