您的位置: 首頁 > 科技頻道

再開源兩款大模型,騰訊慢慢來

出處:北京商報 作者:魏蔚 網(wǎng)編:陶鳳 2024-11-05

圖片:騰訊混元3D資產(chǎn)展示

同行幾乎每月都在發(fā)布大模型開源消息,騰訊的類似新聞發(fā)生在6個月前。11月5日,騰訊將MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式開源,這兩個模型已在騰訊業(yè)務場景落地,支持企業(yè)及開發(fā)者精調、部署等不同場景的使用需求。“慢工出細活”,騰訊機器學習平臺總監(jiān),騰訊混元大語言模型算法負責人康戰(zhàn)輝向媒體介紹新開源的MoE模型“混元Large”時表示;“不是什么都唯快不破”,7月騰訊集團高級執(zhí)行副總裁湯道生談到大模型C(用戶)端產(chǎn)品元寶上線時間時說。巧合的是,第三方機構QuestMobile11月5日披露的AIGC(人工智能生成內容)App月活數(shù)據(jù)顯示,9月豆包、文小言、Kimi等排名前十,元寶不在榜單中。

騰訊混元Large模型總參數(shù)量389B,激活參數(shù)量52B ,上下文長度256K。除了這些大模型的常規(guī)數(shù)據(jù),康戰(zhàn)輝在3個多小時的溝通會上多次強調MoE架構。“騰訊混元Large是目前開源領域參數(shù)規(guī)模最大、效果最好的MoE模型”。

MoE(Mixture of Experts),即混合專家模型,是目前國內外主流的大模型結構。2024年初,騰訊混元宣布在國內率先采用MoE架構模型,總體性能比上一代Dense模型提升50%。此后,騰訊混元推出基于MoE架構的多模態(tài)理解大模型以及基礎模型“混元turbo”。

之所以強調MoE架構,“是因為騰訊做MoE架構很早,我們很早發(fā)現(xiàn)這里面的潛力,所以一直在延續(xù)”,康戰(zhàn)輝解釋,“本質上來講,MoE是一個高性價比的東西,同等算力下,模型參數(shù)量越大,MoE的性價比更高,更適合復雜的任務。Dense模型的優(yōu)勢在于完成一些相對簡單的任務”。

不過他也表示,“架構的選擇長期看是殊途同歸,羅馬在哪里是很清楚的,路怎么走各家不一樣”。

另一款開源的騰訊混元3D生成大模型,首批包含輕量版和標準版,輕量版僅需10s即可生成高質量3D資產(chǎn),目前已在技術社區(qū)公開發(fā)布,包含模型權重、推理代碼、模型算法等完整模型,可供開發(fā)者、研究者等各類用戶免費使用。

在應用層面,騰訊混元3D模型負責人郭春超介紹,目前騰訊3D生成相關技術已經(jīng)開始應用于UGC 3D創(chuàng)作、商品素材合成、游戲3D資產(chǎn)生成等騰訊業(yè)務中。騰訊地圖基于騰訊混元3D大模型,發(fā)布了自定義3D導航車標功能,支持用戶創(chuàng)作個性化的 3D 導航車標,相比傳統(tǒng)的3D車標重建方案,速度提升了91%。

對于開源節(jié)奏,騰訊沒有遮掩,態(tài)度是“不急于為了開源而開源”“在內部業(yè)務打磨好再開源”“要開就要有誠意,與公司內應用模型同宗同源”。

有關推廣策略和營收等則不是騰訊當天的重點,“開源有利于大模型廠商形成更開放的生態(tài),吸引到更多研究者或開發(fā)者來豐富基于這些模型的應用和服務,相應地也能推動模型持續(xù)地優(yōu)化迭代。盡管模型本身是開源的,但仍然可以在這個基礎上提供多種形式的服務,包括定制開發(fā)、技術支持、培訓等”,易觀分析研究合伙人陳晨告訴北京商報記者。

北京商報記者 魏蔚

右側廣告

本網(wǎng)站所有內容屬北京商報社有限公司,未經(jīng)許可不得轉載。 商報總機:010-64101978 媒體合作:010-64101871

商報地址:北京市朝陽區(qū)和平里西街21號 郵編:100013 法律顧問:北京市中同律師事務所(010-82011988)

網(wǎng)上有害信息舉報  違法和不良信息舉報電話:010-84276691 舉報郵箱:bjsb@bbtnews.com.cn

ICP備案編號:京ICP備08003726號-1  京公網(wǎng)安備11010502045556號  互聯(lián)網(wǎng)新聞信息服務許可證11120220001號