黄色三级不卡在线观看-男男视频网站高清观看-久久国产欧美韩国精品app-免费观看妇女A级视频-中文字幕一区二区三区人妻在线视频-国产精选av一区二区-欧美亚洲精品不卡一区二区-99女福利女女视频在线播放-国产美女香蕉久久精品

  • 虎科技 - 領先的互聯(lián)網(wǎng)科技媒體

MIT聯(lián)合英偉達推TLT技術,推理大模型訓練效率大幅躍升

   時間:2026-02-28 14:01 來源:快訊作者:馮璃月

麻省理工學院(MIT)攜手英偉達、蘇黎世聯(lián)邦理工學院等機構,共同推出了一項名為“馴服長尾”(TLT)的創(chuàng)新技術,旨在顯著提升推理大語言模型(LLM)的訓練效率。這一突破性成果,為人工智能領域的高效訓練提供了新的解決方案。

推理大語言模型在解決復雜問題時展現(xiàn)出強大的能力,通過拆解步驟逐步推導答案。然而,在強化學習(RL)的訓練過程中,這類模型對算力和能耗的需求極為龐大。研究團隊深入分析后發(fā)現(xiàn),在訓練過程中,生成多個備選答案的“推演”階段占據(jù)了總訓練時間的85%。由于不同處理器處理任務的速度不同,完成較快的處理器往往需要等待其他處理器處理長文本任務,導致大量時間被浪費,形成了嚴重的效率瓶頸。

為了解決這一問題,MIT的研究人員與合作伙伴共同提出了“馴服長尾(TLT)”自適應解決方案。該方案的核心在于引入“投機解碼”技術,即利用一個較小的“草稿模型”快速預測大模型的未來輸出,再由大模型對這些預測進行批量驗證。這種方式避免了逐個順序生成輸出的傳統(tǒng)模式,從而大幅加快了處理速度。

在傳統(tǒng)的投機解碼方法中,草稿模型通常只訓練一次并保持靜態(tài)。然而,在強化學習過程中,主模型需要更新數(shù)千次,靜態(tài)草稿模型很快就會失效,無法與主模型保持同步。為了克服這一挑戰(zhàn),TLT系統(tǒng)引入了“自適應草稿訓練器”。當部分處理器完成短查詢?nèi)蝿蘸筮M入閑置狀態(tài)時,系統(tǒng)會立即調(diào)度它們實時訓練草稿模型,確保草稿模型始終與目標大模型保持高度同步。

TLT系統(tǒng)還配備了“自適應推演引擎”,能夠根據(jù)工作負載特征自動調(diào)整解碼策略,確保在不增加額外算力開銷的情況下,實現(xiàn)草稿模型與目標大模型的高效協(xié)同。這一創(chuàng)新設計使得訓練過程更加靈活和高效。

基于真實世界數(shù)據(jù)集的測試結(jié)果顯示,TLT技術在保持模型準確率完全無損的前提下,將多個推理大語言模型的訓練速度提升了70%至210%。這一成果不僅顯著縮短了訓練時間,還降低了能耗和成本,為人工智能的大規(guī)模應用提供了有力支持。

值得一提的是,訓練過程中得到的輕量級草稿模型還可以作為副產(chǎn)品直接用于后期的高效部署。這一特性進一步提升了TLT技術的實用價值,為人工智能模型的優(yōu)化和部署提供了新的思路。研究團隊計劃將該技術融入更多訓練與推理框架中,以進一步降低AI開發(fā)成本并提升能源利用率。

 
 
更多>同類內(nèi)容
推薦圖文
百度“秒噠”國際版助力全球用戶:不寫代碼,超百萬AI應用輕松生成 寄大件物流怎么選?不同重量跨省搬家家電運輸省錢攻略大公開
南大校友吳永輝領銜!字節(jié)跳動Seed團隊打造SeeDance 2.0引科技圈熱議 機器人ETF易方達吸金強勁,國產(chǎn)人形機器人加速布局,宇樹等企業(yè)目標明確
推薦內(nèi)容
點擊排行
 
智快科技微信賬號
ITBear微信賬號

微信掃一掃
加微信拉群
電動汽車群
科技數(shù)碼群