🌗 SeedLM:將大型語言模型權重壓縮為偽隨機生成器的種子
➤ 透過偽隨機生成器種子實現高效的模型壓縮
✤ https://machinelearning.apple.com/research/seedlm-compressing
Apple 機器學習研究團隊提出 SeedLM,這是一項新穎的後訓練模型壓縮方法。SeedLM 使用偽隨機生成器的種子來編碼和壓縮模型權重,透過線性回饋移位暫存器 (LFSR) 產生隨機矩陣,並與壓縮係數線性組合來重建權重區塊。此方法能減少記憶體存取次數,並在推理過程中利用閒置的運算週期,藉由犧牲部分運算量來換取更少的記憶體存取,從而加速記憶體受限的任務。SeedLM 不需要校準資料,並在多種任務中展現良好的泛化能力。實驗結果顯示,在 Llama 3 70B 模型上,SeedLM 在 4 位元和 3 位元壓縮時,在零樣本準確度方面與現有最佳方法不相上下,甚至更勝一籌,同時保持與 FP16 基線相當的效能。此外,基於 FPGA 的測試顯示,4 位元的 SeedLM 模型在模型大小增加的情況下,速度比 F
#人工智慧 #機器學習 #大型語言模型 #模型壓縮