微軟研究院近期揭曉了其最新的大型語言模型(LLM)成果——BitNet b1.58 2B4T,這款模型憑借獨特的1.58位低精度架構設計,成功將模型大小壓縮至僅0.4GB,引起了業(yè)界的廣泛關注。
BitNet b1.58 2B4T擁有20億參數(shù),其最大的亮點在于采用了原生1-bit訓練技術,這一創(chuàng)新直接挑戰(zhàn)了傳統(tǒng)的訓練后量化方法。這種新方法不僅保持了模型的高性能,還顯著降低了對計算資源的需求。在與同規(guī)模全精度模型的對比中,BitNet b1.58 2B4T展現(xiàn)出了相近的性能,而在內存占用方面,其非嵌入內存僅為0.4GB,遠低于競品Gemma-3 1B的1.4GB和MiniCPM 2B的4.8GB。
為了實現(xiàn)這一突破,BitNet b1.58 2B4T摒棄了常規(guī)的16位數(shù)值表示,轉而采用了定制的BitLinear層,將權重限制為-1、0和1三種狀態(tài),形成了一種高效的三值系統(tǒng)。這種設計使得每個權重僅需約1.58位信息存儲,從而極大地節(jié)省了內存空間。模型的層間激活值采用了8位整數(shù)量化,形成了獨特的W1.58A8配置。微軟團隊還對Transformer架構進行了優(yōu)化,引入了平方ReLU激活函數(shù)、標準旋轉位置嵌入(RoPE)以及subln歸一化等技術,確保了低位訓練的穩(wěn)定性和高效性。
在性能表現(xiàn)上,BitNet b1.58 2B4T在GSM8K(數(shù)學)和PIQA(物理常識)等基準測試中展現(xiàn)出了優(yōu)異的性能,其整體性能與主流的1B-2B參數(shù)全精度模型相當。同時,該模型在能耗和解碼延遲方面也具有顯著優(yōu)勢,每token能耗僅為0.028焦耳,解碼延遲低至29毫秒。這些特性使得BitNet b1.58 2B4T在實際應用中具有更高的能效比和更快的響應速度。
微軟團隊并未因這一成就而滿足,他們正計劃對BitNet b1.58 2B4T進行進一步優(yōu)化。未來的優(yōu)化方向包括增強對GPU和NPU的支持,以進一步提升模型的運行效率;將上下文窗口延長至4096 token,以提高模型處理長文本的能力;探索多語言模型的開發(fā),以滿足不同語言環(huán)境下的應用需求;以及研究更大規(guī)模模型的硬件協(xié)同設計方案,以推動人工智能技術的進一步發(fā)展。
目前,BitNet b1.58 2B4T已在Hugging Face平臺以MIT許可證發(fā)布,供社區(qū)成員進行測試和應用。然而,需要注意的是,要充分發(fā)揮該模型的高效性,需要依賴微軟提供的專用C框架(bitnet.cpp)。使用標準工具(如Hugging Face transformers庫)可能無法完全展現(xiàn)其速度和能耗優(yōu)勢。