中國工程院院士、鵬城實驗室主任高文(左),百度首席技術官王海峰聯(lián)合發(fā)布大模型。圖片來源:百度
作為當前人工智能發(fā)展的重要方向,預訓練大模型已成為AI領域的技術新高地。
12月8日,鵬城實驗室與百度在深圳聯(lián)合召開發(fā)布會,發(fā)布雙方共同研發(fā)的全球首個知識增強千億大模型——鵬城-百度·文心(模型版本號:ERNIE 3.0 Titan),百度產(chǎn)業(yè)級知識增強大模型“文心”全景圖也首次亮相。
鵬城實驗室總部位于深圳,是中央批準成立的網(wǎng)絡通信領域新型科研機構,該實驗室所研發(fā)的“鵬城云腦Ⅱ”是國產(chǎn)自主的首個E級AI算力平臺,為鵬城-百度·文心提供算力支持。
會上,百度首席技術官、深度學習技術及應用國家工程實驗室主任王海峰表示,鵬城-百度·文心大模型參數(shù)規(guī)模達到2600億,是目前全球最大的中文單體模型。
參數(shù)規(guī)模意味著什么?中國工程院院士、鵬城實驗室主任高文解釋道,參數(shù)越多,大模型越復雜,越能夠準確地把事情表達清楚。
他舉例說,要說一個人的性別很簡單,如果要把年齡、家庭關系、祖上由來都弄清楚,就需要非常非常多地參數(shù)。
在海量參數(shù)的基礎上,鵬城-百度·文心大模型能從大規(guī)模知識、多種語言、多種模態(tài)數(shù)據(jù)中融合學習。據(jù)王海峰所述,該模型在機器閱讀理解、文本分類、語義相似度計算等60多項任務取得最好效果,并在30余項小樣本和零樣本任務上刷新基準。
他還談到,鵬城-百度·文心大模型由百度文心知識增強算法、大規(guī)模數(shù)據(jù)與知識、飛槳深度學習平臺及“鵬城云腦Ⅱ”支撐。
據(jù)介紹,飛槳是我國首個自主研發(fā)的深度學習開源開放平臺,研制了端到端自適應分布式訓練框架,實現(xiàn)多硬件支持,并行效率高達90%,支持鵬城-百度·文心大模型高效、穩(wěn)定地訓練。
為解決大模型應用落地難題,百度團隊首創(chuàng)大模型在線蒸餾技術,模型參數(shù)壓縮率可達99.98%。壓縮版模型僅保留0.02%參數(shù)規(guī)模就能與原有模型效果相當。
王海峰表示,鵬城-百度·文心代碼近期會在OpenI啟智社區(qū)開源,依托“鵬城云腦Ⅱ”對外開放,將進一步解決 AI 技術在產(chǎn)業(yè)應用中缺乏領域和場景化數(shù)據(jù)等關鍵難題。
“預訓練模型對整個科學的發(fā)展、社會的發(fā)展、創(chuàng)新的發(fā)展都是非常重要的工具。運用這個工具,可以幫助做很多人工智能的賦能,不局限于某個領域,這對人工智能的發(fā)展都是一個福音。” 高文則表示。
為促進產(chǎn)學研協(xié)“多輪驅動”,百度還與鵬城實驗室成立了鵬城-百度自然語言處理聯(lián)合實驗室,并以此為依托,資源共享、優(yōu)勢互補,在自然語言處理前沿研究和創(chuàng)新應用方面協(xié)同攻關。