騰訊發(fā)布開源MoE大語言模型Hunyuan
[探索] 時間:2024-12-23 07:40:04 來源:下愚不移網(wǎng) 作者:休閑 點擊:53次
11月5日消息,騰訊騰訊今日宣布推出業(yè)界參數(shù)規(guī)模最大、發(fā)布效果最好的開源開源MoE大語言模型Hunyuan-Large。
Huanyuan-large模型的模型總參數(shù)量為389B、激活參數(shù)為52B、騰訊訓(xùn)練token數(shù)量為7T、發(fā)布最大上下文長度為256K、開源詞表大小為12.8w。模型
在技術(shù)創(chuàng)新方面,騰訊Hunyuan-large通過高質(zhì)量的發(fā)布合成數(shù)據(jù)來增強模型訓(xùn)練,彌補了自然數(shù)據(jù)的開源不足。
其中,模型該模型預(yù)訓(xùn)練支持處理高達256K的騰訊文本序列,大幅提升了長文本上下文的發(fā)布處理能力,能夠更高效地完成長文本任務(wù)。開源
據(jù)了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多學(xué)科綜合評測集上表現(xiàn)優(yōu)異,在中英文自然語言處理、代碼生成、數(shù)學(xué)運算等9大能力維度中全面領(lǐng)先,超越了Llama3.1和Mixtral等一流開源模型。
此外,騰訊還宣布將推出自研的長文評測集“企鵝卷軸(PenguinScrolls)”,以填補行業(yè)在真實長文評測集上的空白。
企鵝卷軸基于公開的金融、法律、學(xué)術(shù)論文等長文本構(gòu)建,文本長度從1K到128K不等,覆蓋深度閱讀理解和長文推理任務(wù)。
(責任編輯:時尚)
相關(guān)內(nèi)容
- 《龍騰世紀4》跨性別總監(jiān)為失敗開脫:玩家還是不夠包容
- 利物浦6連勝提前晉級歐冠16強,斯洛特為什么不滿意?
- 華為Mate 70定檔11月26日!外觀、配置全曝光 首發(fā)更強大的新麒麟處理器
- 客戰(zhàn)5連敗的萊比錫,埃梅里:有機會進入前八非常非常有動力
- 拉菲尼亞談穆里奇進球:穆薩
- 皇馬死用主力&巴薩青訓(xùn)井噴?吧友如何看待皇薩不同的用人策略?
- 穆杰萊:我很高興能夠取得進球;沒想到對手會如此嚴密地防守
- 巴黎傷情:盧卡斯胃病痊愈已恢復(fù)合練,馬尤盧仍在繼續(xù)康復(fù)計劃
- 施魏因施泰格談諾伊爾紅牌:他稍微慢了點,拜仁后衛(wèi)站得太靠前了
- 臺泥集團大陸營運總部竣工 AI技術(shù)重現(xiàn)辜振甫影像
- 2024年粵港澳大灣區(qū)青少年跳繩邀請賽廣州成功舉行
- 不賣就禁!美國法院拒絕駁回TikTok禁令法案
- [流言板]熱火官方:巴特勒今日小概率出戰(zhàn),樂福和理查德森缺席
- 皇馬死用主力&巴薩青訓(xùn)井噴?吧友如何看待皇薩不同的用人策略?