界面新聞記者 | 李彪
當GPT-4首次支持多模態后,文本、圖像、視頻及更多形態的數據都被設想成未來可以“喂給”大模型的數據。從訓練到推理,從數據中心到邊緣,AI引爆的數據多模態化浪潮使得業界意識到算力明顯不夠用了。
(資料圖片)
“大模型的爆發首先帶動的是訓練,算力需求目前最緊俏也是這部分,英偉達目前在訓練一側是絕對的霸主。但當大模型訓出來后,開放API響應廣大網友們每天的各種請求,推理的算力價值就會被浮出水面。”原粒半導體創始人兼CEO方紹峽博士接受界面新聞采訪中告訴記者。
原粒半導體是一家AI Chiplet供應商,公司正式成立于今年4月,創始團隊來自國際半導體巨頭,在AI芯片領域深耕多年。
這支新創業團隊的目標是通過結合創新的多模態AI處理器技術與Chiplet設計方法,提供高能效、低成本的通用AI Chiplet組件,客戶可以根據實際業務需求低成本、靈活、快速配置出不同算力規格的AI芯片,以滿足多模態大模型的推理及邊緣端訓練微調需求。
Chiplet通常被定義為模塊化芯片的設計概念,包含“IP芯片化(IP as a Chiplet)”和“芯片平臺化(Chiplet as a Platform)”。與之形成對比的傳統集成電路的SoC技術(片上系統)。
它是將原本集成在一整塊芯片上全部核心處理器IP(例如圖形處理器 (GPU)IP、 視頻處理器 ( VPU )IP、 數字信號處理器 (DSP)IP、神經網絡處理器 ( NPU )IP等等)按功能拆分成一個個的獨立單元,即芯粒,俗稱“小芯片”。芯片廠商通過采購這些芯粒,按需求利用2D、3D封裝做拼搭組合,做到“即插即用”。
受摩爾定律的物理極限限制,傳統SoC技術在突破更小尺寸的先進制程的迭代道路上成本高、良率低。
同時SoC芯片在近幾年的發展中,除與AI計算功能相關的IP外,其他部分規格變化緩慢,大模型的出現更是顯著拉大了這一差距。若沿著SoC路線,更新迭代流片成本過高。
在此前提下,Chiplet因為能夠突破單顆芯片的面積制約、模塊化后又通過先進封裝可以實現異構集成,是成本更低的解決方案。
此外,大模型推理對于邊緣算力的需求也是未來的另一大趨勢。
方紹峽認為,與云計算的數據中心架構相比,大模型在邊緣端的智能計算是在一個已經訓練好、有基本智能水平的模型基礎上。當邊緣端具備多模態大模型的離線學習進化能力時,本地模型將變成私人定制化的東西,數據也無需再往云端上傳。這部分推理與訓練微調過程主要依賴邊緣多模態大模型AI算力。
在這種前提下,同“一卡難求”的英偉達GPU提供給的算力相比,引入第三方算力自然而然地成了一種降成本、提效率的可行選擇。
目前,原粒半導體當前思考的商業模式主要是作為AI Chiplet產品的上游供應商,向下游的SoC廠商及系統廠商提供標準化的多模態大模型AI 算力Chiplet產品。
上下游產業鏈上的“SoC主控+AI Chiplet”組合可有效復用芯片主控,顯著降低成本,快速滿足各類規格需求,同時也是Chiplet產業化的機遇,預計也會是公司未來主要的營收渠道。
原粒半導體自身定位于AI算力基礎設施供應商。Chiplet目前還是新鮮事物。因此需要芯粒廠商積極適配SoC廠商及系統廠商需求,多模態AI算力Chiplet也將給AI算力市場帶來全新可能。
原粒半導體近期宣布已經完成數千萬元人民幣種子輪融資,本輪融資由英諾天使基金領投,中關村發展集團、清科創投、水木清華校友種子基金、中科創星等多家機構跟投。本輪融資將用于公司核心團隊組建以及創新技術研發。
(文章來源:界面新聞)
關鍵詞: