RISC-V在服務器市場推進速度將比PC市場更快。據(jù)介紹,服務器市場的最終用戶是to B端,PC以及智能手機最終用戶是to C端,后者要求的軟件生態(tài)需要更加完備;相比,服務器市場解決少量的軟件問題就可以帶來市場突破,參考過往經驗,如果能夠在特定的細分領域提供更好的性能,節(jié)約功耗成本,異架構芯片在服務器市場就有機會。
(資料圖)
RISC服務器市場占有率前景分析
根據(jù)投資公司ASK Invest預測,2030年,ARM和RISC-V將在云服務領域取代英特爾的x86架構,屆時兩者組合在服務器市場的占有率將達到70%。
RISE創(chuàng)始董事會包含谷歌、英特爾、平頭哥、三星、聯(lián)發(fā)科、英偉達、高通、Andes、Imagination、Red Hat、Rivos、SiFive、Ventana等13名成員,匯聚了全球計算領域的頂級玩家。這些公司此前在RISC-V的各個領域已經多有探索,如今出于安全穩(wěn)定、成本效益等多重考量,加速了催熟RISC-V生態(tài)的步伐。
近年來,從英國易主日本的Arm公司,在軟銀孫正義大資本打法的“裹挾”下,賣身英偉達受阻后又任性提高處理器IP授權費為IPO沽個好價錢,正變成那個“自己曾經討厭的人”。眼下一場針對ARM的擺脫或替代之戰(zhàn)已經打響。谷歌、三星、高通等大廠紛紛加入戰(zhàn)局;甚至曾經的壟斷者英特爾,也站在了新壟斷者的對立面。
6月26-30日,上述“RISE”計劃的創(chuàng)世董事會成員、RISC-V的領導者廠商SiFive,接連在中國上海、北京、深圳舉辦三場RISC-V中國技術論壇,分享RISC-V最新技術趨勢和產品方案,乘勢加碼中國市場。作為RISC-V開源開放精神最有力的傳承者和發(fā)揚者,SiFive在很大程度上引領了RISC-V的創(chuàng)新之路。
RISC–V主要發(fā)明人、SiFive共同創(chuàng)辦人兼首席架構師Krste Asanovi?教授,與SiFive企業(yè)營銷與業(yè)務開發(fā)資深副總裁剛至堅(Jack Kang) 三城“連軸轉”,與數(shù)以千計的合作伙伴、生態(tài)伙伴和現(xiàn)場觀眾暢聊全球RISC-V趨勢與RISC-V在中國半導體行業(yè)的發(fā)展,引發(fā)熱烈反響。
根據(jù)中研普華研究院《2023-2028年中國RISC服務器行業(yè)競爭分析及發(fā)展前景預測報告》顯示:
RISC-V的發(fā)展勢不可擋,未來兩到三年有望超越傳統(tǒng)架構,迎來更好的處理器和生態(tài)系統(tǒng)。RISC-V國際基金會發(fā)布的數(shù)據(jù)預測,到2025年RISC-V內核將增至800億顆,增長速度遠超原預計的600億顆。而截至2022年12月,市場上已經擁有超過100億顆RISC-V內核。
對于RISC-V將強勢增長的原因,Krste Asanovi?教授一針見血地指出,RISC-V與x86和ARM體系的不同之處在于其高度開放,不受任何一家企業(yè)主導;使用這一架構的芯片設計企業(yè)擁有更獨立的主導權,專業(yè)設計公司和廠商自身都可以參與其中,競爭更加充分,更能保持創(chuàng)新活力。
人工智能服務器需求逐步增長
今年以來,訓練型人工智能服務器成為計算機領域需求最旺盛的細分行業(yè)。此外,應用領域的推理型人工智能服務器需求也在逐漸增長。
大模型仍處于混戰(zhàn)階段,應用處于滲透率早期,AI板塊中算力需求增長的確定性較高,在未來兩年時間內,算力板塊都將處于高景氣度階段。
報告指出,自2022年底OpenAI正式推出ChatGPT后,用戶量大幅增長,圍繞ChatGPT相關的應用層出不窮,其通用性能力幫助人類在文字等工作上節(jié)省了大量時間。同時在Transformer新架構下,多模態(tài)大模型也取得新的突破,文生圖、文生視頻等功能不斷完善,并在廣告、游戲等領域取得不錯的進展。生成式AI將是未來幾年最重要的生產力工具,并深刻改變各個產業(yè)環(huán)節(jié),圍繞生成式AI,無論是訓練還是推理端,算力需求都將有望爆發(fā)式增長。
首先是訓練側,參考OpenAI論文,大模型訓練側算力需求=訓練所需要的token(最小單位)數(shù)量*6*大模型參數(shù)量。可以看到從GPT3.5到GPT4,模型效果越來越好,模型也越來越大,訓練所需要的token數(shù)量和參數(shù)量均大幅增長,相應的訓練算力需求也大幅增長。并且,與GPT4相關的公開論文也比較少,各家巨頭向GPT4邁進的時候,需要更多方向上的探索,也將帶來更多的訓練側算力需求。其次是推理側,單個token的推理過程整體運算量為2*大模型參數(shù)量,因此大模型推理側每日算力需求=每日調用大模型次數(shù)*每人平均查詢Token數(shù)量*2*大模型參數(shù)量,僅以Google搜索引擎為例,每年調用次數(shù)至少超過2萬億,一旦和大模型結合,其AI算力需求將十分可觀。另外,人工智能算力需求有望推動海底數(shù)據(jù)中心規(guī)模化發(fā)展。
報告推算,2023年-2027年,全球大模型訓練端峰值算力需求量的年復合增長率有望達到78.0%,2023年全球大模型訓練端所需全部算力換算成的A100芯片總量可能超過200萬張。全球大模型云端推理的峰值算力需求量的年復合增長率有望高達113%。
全球AI服務器市場規(guī)模未來3年內將保持高速增長,2022年中國AI服務器市場規(guī)模67億美元,同比增長24%。2023-2025年,中國AI服務器市場規(guī)模有望達到134/307/561億美元,同比增長101%/128%/83%。AI服務器是算力基礎設施最主要的硬件,訓練型主要成本來自于GPU芯片。競爭格局方面,考慮到AI服務器研發(fā)和投入上需要更充足的資金及技術支持,國內市場的競爭格局預計將繼續(xù)向頭部集中,保持一超多強的競爭格局。
《2023-2028年中國RISC服務器行業(yè)競爭分析及發(fā)展前景預測報告》由中研普華研究院撰寫,本報告對該行業(yè)的供需狀況、發(fā)展現(xiàn)狀、行業(yè)發(fā)展變化等進行了分析,重點分析了行業(yè)的發(fā)展現(xiàn)狀、如何面對行業(yè)的發(fā)展挑戰(zhàn)、行業(yè)的發(fā)展建議、行業(yè)競爭力,以及行業(yè)的投資分析和趨勢預測等等。報告還綜合了行業(yè)的整體發(fā)展動態(tài),對行業(yè)在產品方面提供了參考建議和具體解決辦法。
關鍵詞: