美團開源「龍貓」大模型 性能追平DeepSeek V3.1

據內媒報道,美團(3690)開源了「龍貓」大模型(LongCat-Flash),性能上亦追平了DeepSeek V3.1等模型。龍貓是一個擁有5,600億參數的混合專家(MoE)模型,最創新是其「零計算」專家機制,即模型可判斷輸入內容中不同部份的重要性,並將計算量較小任務分配給「零計算」專家,從而令模型處理每個詞元(token)時,僅需動態啟動186億至313億參數,實現性能與效率的平衡。

擁高速推理 極低營運成本

報道指出,在大規模MoE模型中,不同「專家」模組之間的通訊延遲往往是效能瓶頸,「龍貓」大模型則引進了快速連結混合專家模型(ScMoE), 透過引入一個快捷連接,有效地擴大運算和通訊的重疊窗口,顯著提升了訓練和推理的吞吐量,讓模型的反應速度更快。

報道提到,「龍貓」大模型擁有極高的推理速度,每秒速度超過100字元;極低的營運成本,每處理100萬輸出詞元成本僅為0.7美元;以及強大的綜合能力,支援128k的長文本上下文,並在程式碼、推理和工具調用等多個方面展現出與業界領先模型相媲美的競爭力。

對話和推理能力非常優秀

該模型不僅在多個方面與業界頂尖的開源模型旗鼓相當,甚至在某些特定能力上實現了超越,當中在ArenaHard-V2該項得分為86.5 ,超過了DeepSeek V3.1,並與Qwen3 MoE(88.2分)非常接近,說明其對話和推理能力非常優秀。

此外,該模型在IFEval及COLLIE這兩個專門評估模型理解並執行複雜指令的基準中,也超越了DeepSeek V3.1及名列前茅,其中在COLLIE測試中更是在所有參與對比模型中排名第一。目前「龍貓」模型已發佈在Hugging Face和Githiub社區,並遵循MIT許可協議。

即時財經