1月24日 消息:華盛頓大學推出更高效的大模型調優方法“代理調優”,該方法通過對比小型調整模型和未調整模型的預測結果來引導基礎模型的預測,實現對模型的調優而無需接觸模型的內部權重。
隨著ChatGPT等生成式AI產品的發展,基礎模型的參數不斷增加,因此進行權重調優需要耗費大量時間和算力。為提升調優效率,該方法可以在解碼時更好地保留訓練知識,同時保留更大規模預訓練的優勢。研究人員對LlAMA-2的13B、70B原始模型進行了微調,結果顯示代理調優的性能比直接調優的模型更高。

該方法需要準備一個小型的預訓練語言模型M-,與基礎模型M共享相同的詞匯表,然后使用訓練數據對M-進行調優得到調優模型M+。
在解碼時,通過對比基礎模型M的輸出預測分布和調優模型M+的輸出預測分布之間的差異,來引導基礎模型的預測,最后將預測差異應用于基礎模型的預測結果,以引導基礎模型的預測朝向調優模型的預測方向移動。這一方法與大模型中的“蒸餾”技術恰恰相反,是一種創新性的調優方法。
代理調優方法的推出,為大模型的調優提供了更高效的解決方案,同時也可以在解碼時更好地保留訓練知識,使得模型的性能更高。這一方法的推出將為AI領域的發展帶來新的啟示,值得進一步深入研究和應用。
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...