開源賽道也是熱鬧了起來。
就在深夜,字節跳動 Seed 團隊正式發布并開源了 Seed-OSS 系列模型,包含三個版本:
Seed-OSS-36B-Base(含合成數據)
Seed-OSS-36B-Base(不含合成數據)
Seed-OSS-36B-Instruct(指令微調版)
Hugging Face 地址:
項目地址:
Seed-OSS 使用了 12 萬億(12T)tokens 進行訓練,并在多個主流開源基準測試中取得了出色的表現。
這三個模型均以 Apache-2.0 許可證發布,允許研究人員和企業開發者自由使用、修改和再分發。
主要特性:
靈活的推理預算控制:允許用戶根據需要靈活調整推理長度。這種對推理長度的動態控制能力,可在實際應用場景中提升推理效率。
增強的推理能力:在保持平衡且優秀的通用能力的同時,針對推理任務進行了特別優化。
智能體能力:在涉及工具使用和問題解決等智能體任務中表現突出。
研究友好:考慮到在預訓練中加入合成指令數據可能會影響后續研究,字節同時發布了含有與不含指令數據的預訓練模型,為研究社區提供了更多樣化的選擇。
原生長上下文:在訓練中原生支持最長 512K 的上下文窗口。
模型架構
Seed-OSS-36B 的架構結合了多種常見的設計選擇,包括因果語言建模、分組查詢注意力(Grouped Query Attention)、SwiGLU 激活函數、RMSNorm 和 RoPE 位置編碼。
每個模型包含 360 億參數,分布在 64 層網絡中,并支持 15.5 萬詞表。
其最具代表性的特性之一是原生長上下文能力,最大上下文長度可達 512k tokens,能夠在不損失性能的情況下處理超長文檔和推理鏈。
這一長度是 OpenAI 最新 GPT-5 模型系列的兩倍,大約相當于 1600 頁文本。
另一個顯著的特性是引入了推理預算,它允許開發者在模型給出答案之前,指定模型應執行多少推理過程。
這一設計在近期其他一些開源模型中也有所體現,例如 Nvidia 新推出的 Nemotron-Nano-9B-v2。
在實際應用中,這意味著團隊可以根據任務的復雜性和部署的效率需求來調節性能。
推薦的預算值為 512 tokens 的倍數,其中 0 表示直接輸出答案的模式。
結果
基準測試結果顯示,Seed-OSS-36B 位列當前性能較強的開源大模型之列。
Seed-OSS-36B-Base
含合成數據版本的 Base 模型在 MMLU-Pro 上取得 65.1 得分,在 MATH 上取得 81.7 得分。非合成基礎版本雖然在許多方面略微落后,但也具有競爭力。
Seed-OSS-36B-Instruct
Instruct 版本在多個領域都取得了 SOTA 成績。
數學與推理:Seed-OSS-36B-Instruct 在 AIME24 上取得 91.7% 的成績,在 BeyondAIME 上取得 65,均代表開源領域的最新 SOTA 水平。
代碼能力:在 LiveCodeBench v6 上,Instruct 模型得分 67.4,同樣刷新 SOTA 紀錄。
長上下文處理:在 RULER(128K 上下文長度)測試中,該模型達到 94.6,創下開源模型的最高分。
思考預算
用戶可以靈活指定模型的推理預算。下圖展示了在不同任務中,隨著推理預算變化而產生的性能曲線。
對于較簡單的任務(如 IFEval),模型的思維鏈較短,隨著推理預算的增加,分數會出現一定波動。
而在更具挑戰性的任務(如 AIME 和 LiveCodeBench)中,模型的思維鏈較長,分數則會隨著推理預算的增加而提升。
模型在運行過程,會提醒用戶 token 使用情況。
如果未設置推理預算(默認模式),Seed-OSS 將以無限長度啟動推理。
如果指定了推理預算,字節建議用戶優先選擇 512 的整數倍數(如 512、1K、2K、4K、8K 或 16K),因為模型已在這些區間上進行了大量訓練。
當推理預算為 0 時,模型會被指示直接輸出答案;對于低于 512 的預算,字節也建議統一設為 0。