Hi
財經作家吳曉波曾經給過去十年一個概括,用的就是“水大魚大”,所謂“沒有企業的時代”,只有“時代的企業”,正因為中國這汪大湖過去十年大水猛漲,中國公司的體量隨之膨脹。而“水大魚大”的比喻,在人工智能產業的發展來說,又極其的貼切。
人工智能的每一步發展都是因為這個時代的環境使然。得益于數據量的爆炸式增長、計算能力的大幅提升、機器學習算法的持續優化,人工智能產業正快速發展。IDC預測:在2025年,全球數據量將達到史無前例的163ZB;同時,5G和AI結合帶動了全球算力爆炸式增長,從2016年開始到現在AI算力增長了約30萬倍。就算法來看,大模型成了AI產學界刷屏率頗高的詞匯,更大算力、更大數據集的大模型,或許才是未來AI最好的伙伴。
在這樣一個人工智能的汪洋大海里,無論是AI芯片、AI服務器等領域,都已經涌現出了一批巨頭。
AI算法模型,更巨量者得天下?
人工智能已經從五六年前的“黑科技”變成了今天的“熱科技”,并與各個產業深度融合,加速推動著智慧時代的到來。但同時,人工智能的落地應用從“可用”走向“好用”,還存在著諸多挑戰。
就算法來說,深度學習技術興起的近10年間,AI模型基本上是針對特定應用場景需求進行訓練的小模型。而在中國工程院院士、浪潮首席科學家王恩東看來,人工智能如何發展出像人類具備邏輯、意識和推理的認知能力,是人工智能研究一直在探索的方向。“目前來看,通過大規模數據訓練超大參數量的巨量模型,被認為是非常有希望實現通用人工智能的一個重要方向。”王恩東院士認為,隨著巨量模型的興起,巨量化已成為未來人工智能發展非常重要的一個趨勢。
算法模型為什么要從“小”到“大”?浪潮信息(000977,股吧)人工智能研究院首席研究員吳韶華作了進一步解釋,小模型用特定領域有標注的數據訓練,通用性差,換到另外一個應用場景中往往不適用,這樣有一個很糟糕的結果就是,針對于任何一個任務都要微調出來一個有針對性的模型。極端的真實案例里,就有一家客戶產生了幾百種模型來支撐幾百種產品。另外,小模型的訓練方式需要大規模的標注數據,如果某些應用場景的數據量少,訓練出的模型精度就會不理想。而大模型技術路線可有效解決這個問題。“大模型有非常突出的小樣本學習,甚至零樣本學習的能力,很有希望去解決這種不同場景下模型繁多的問題,一個模型訓練出來可以適用于不同的場景。“
“巨量數據、巨量算法和巨量算力”正成為邁向通用人工智能的重要路徑,OpenAI、微軟、谷歌、英偉達、浪潮信息等科技巨頭紛紛發力“大模型”創新。更有研究預計,大模型將在三到五年的時間里開始真正深刻影響產業的變革和智能化升級的方向。
在“AICC 2021人工智能計算大會”期間,全球最大規模中文人工智能巨量模型“源1.0”首次亮相。“源1.0”的單體模型參數量達2457億,訓練采用的中文數據集達5000GB,問鼎全球最大規模中文AI巨量模型。這也代表了國內AI巨量模型的一個新高度。但從參數量的角度來看,“源1.0”還遠沒有到盡頭,按照目前這種趨勢,AI產業的玩家們對于更大體量模型的探索仍然會繼續下去。
不止于大,從專用智能到通用智能
最近,斯坦福大學數十位研究者聯名發表《基礎模型的機遇和風險》綜述文章,認為大模型的特點之一是“同質化”,好處在于大模型的任何一點改進就可以迅速覆蓋整個AI社區,但同時,它也帶來一些隱患,大模型的缺陷會被所有下游模型所繼承。特點之二是海量數據(603138,股吧)訓練出的基礎模型具有“涌現”特性,也就是產生未曾預先設想的新能力,這種特性有望讓AI具備處理語言、視覺、機器人、推理、人際互動等各類相關任務的能力。
這帶來的問題就是,在追求“巨量”的同時,如何規避風險,并通過模型激活各行各業,讓AI落地應用?
在浪潮信息副總裁、浪潮信息AI&HPC產品線總經理劉軍看來,任何技術的發展總有一個從興起到成熟再到落地的一個階段,大模型現在正處于興起的階段,大家正在圍繞著模型的體量以及模型體量帶來的精度效應來開展持續的探索,當大模型探索走向成熟之后,一定要考慮應用的具體問題,比如響應化、高性能推理部署等諸如此類的問題。
同時,劉軍認為,AI巨量模型到底要做什么,不做什么,不能天馬行空。“可以從兩個不同的層面去考慮,一是產業發展的層面,產品怎么去滿足客戶、滿足市場、滿足應用需要的發展。二是科研創新,科學的探索方向,去思考怎么樣和產業的方向去匹配。“
從“量”上看,“源1.0”相比GPT-3模型1750億參數量和570GB訓練數據集,“源1.0”參數規模領先40%,訓練數據集規模領先近10倍。同時“質”上也達到了全球領先,“源1.0”在語言智能方面表現優異,獲得中文語言理解評測基準CLUE榜單的零樣本學習和小樣本學習兩類總榜冠軍,測試結果顯示,人群能夠準確分辨人與“源1.0”作品差別的成功率已低于50%。
但單純的追求“大”并不是浪潮信息的目標。劉軍表示:“巨量模型不是大公司專享,應該成為普惠性的科技進步力量,讓行業用戶甚至是中小用戶也能使用巨量模型尋求深度創新,促進業務可持續健康發展”。吳韶華對此也表示,巨量模型的發展并不是真的在比大,大不是目的,最根本的目的,從技術層面來講就是要追求通用智能,就是從專用智能走向通用智能。
開源開放,從“順勢而為”到“扶搖直上”
在AICC 2021大會上,浪潮信息推出“源1.0”開放開源計劃,“源1.0”將面向學術研究單位和產業實踐用戶進行開源、開放、共享。
其實,將AI算法模型進行開源已經是AI產業的通用做法,但回到浪潮信息自身來看,這一步棋還是有不一樣的涵義。
首先,浪潮信息“源1.0”作為全球最大規模的中文AI巨量模型,除了規模大、數據大、性能強之外,無論是開放模型API,開放高質量中文數據集,開源模型訓練代碼、推理代碼和應用代碼等都需要浪潮信息有強有力的支撐,能夠做好支撐行業AI開發者的堅實底座。
先看浪潮信息“源1.0”的開源底氣何來?《逍遙游》中說,“水之積也不厚,則其負大舟也無力”“風之積也不厚,則其負大翼也無力”,全球最大的中文AI巨量模型誕生,得益于浪潮信息在人工智能領域深厚的積累和不斷的探索實踐。浪潮信息一直活躍在AI前沿方向,在異構加速計算、深度學習框架、AI算法等領域取得了一定的成績。
目前,浪潮信息的AI服務器市占率已位居全球第一,連續4年中國市場占比超過50%;在深度學習框架領域,浪潮信息先后推出了深度學習并行計算框架Caffe-MPI、TensorFlow-Opt、全球首個FPGA高效AI計算開源框架TF2等等。2020年,浪潮信息在人工智能領域的專利貢獻達到1174件,位居中國前列。
其次,在國內已經有許多廠商開放AI算法模型的前提下,浪潮信息開放“源1.0”,必然需要走差異化的道路,提供給AI開發者和產業不一樣的價值,如此其開源才有意義。
浪潮信息作為智算中心的提出者,可以讓智算中心這一算力基礎設施和巨量模型這一算法基礎設施行成協同效應。因為大模型的訓練運行需要智算中心的基礎設施,需要算力基礎設施來作為算力平臺,兩者的協同工作,能為產業AI提供一個強大的推動力。
正是因為國內人工智能產業的迅猛壯大,才能產生浪潮信息AI服務器市占率位居全球第一、“源1.0”成為全球最大的中文AI巨量模型這樣的成績,“水大魚大”,浪潮信息不止做到了順勢而為,還做到了“扶搖直上”, 負產業之志,然后圖南,浪潮信息“源1.0”有“絕云氣,負青天”之志,更是中國AI產業扶搖而上者九萬里的希望所在。
Hi
本文首發于微信公眾號:略懂的小咖。文章內容屬作者個人觀點,不代表和訊網立場。投資者據此操作,風險請自擔。