編輯丨劉恒濤
一個饅頭的熱量 ( 約 20 瓦 ) ,就能完成需要上萬瓦電力的運算?
這是陸兮科技沖擊的目標。陸兮科技在 2023 年由兩位 95 后女性創立,是國內首家 " 類腦計算生態鏈 " 企業。2024 年,陸兮科技推出了首個非 Transformer 架構、采用類腦技術路線的國產自研大模型— NLM 模型。NLM 模型高效低能耗,推理效率提升了數倍,能耗卻降低了 80% 以上。
目前,該模型已通過國家網信辦 " 生成式人工智能服務 "、" 深度合成算法服務 " 兩項備案,獲準上線公開運行。
作為 Transformer 架構的挑戰者之一,陸兮科技以類腦算法搭建全自研架構,力爭突破 Transformer 的技術壟斷,以及對英偉達等高制程芯片的依賴。在宏大的目標前,陸兮科技的底氣何在?
挑戰 Transformer 做主權 AI
2017 年谷歌提出的 Transformer 架構,帶動了新一輪 AI 工業革命。通過自注意力機制和位置編碼,Transformer 成為了大模型主流算法底座,引領了 AI 的未來。
但如今,Transformer 的影響正在減弱。由于計算復雜度高、訓練和部署成本居高不下、依賴高性能的 GPU 和大量存儲空間,Transformer 架構所需的算力競爭難以為繼。
陸兮科技創始人兼 CTO 周芃舉例,Transformer 遵循暴力解法,每推出一個新的 Token,就必須回溯所有的 Token。就像是讓 AI 讀了一本書,之后每回憶書中的部分內容,AI 就要把全書內容全部再讀一遍,由此帶來了大量算力消耗。
一場針對 Transformer 架構的挑戰正拉開帷幕。挑戰者包括微軟和清華推出的 RetNet;卡內基梅隆大學和普林斯頓大學研究團隊推出的 Mamba;華中科技大學、字節跳動和香港大學推出的 Liquid 架構等。
挑戰者有一個共同的思路:讓底層架構算法降本增效。周芃認為,陸兮科技采用的 " 類腦算法 " 技術路線具有顯著優勢。" 人工智能的浪潮,最初是由大腦的啟發開始的。人腦是當今運算能效比最強、能耗最低、成本最低的計算單元。目前人工智能領域的頂尖學者們都有一個共識,他們認為下一代人工智能是向大腦靠齊的。"
類腦架構的本質,是模仿人腦的神經元結構和功能,實現高效的運算與存儲機制。和 Transformer 的暴力解法不同,人腦在運算時僅調取直接相關的神經元,其余神經元處于休眠狀態,這樣就能減少無效計算。還是以讀書做比喻,類腦架構大模型可以直接定位到相關章節,無需從頭到尾再讀一遍。
" 我們大腦只耗 20 瓦的功耗,但現在的算力中心,搭載 Transformer 架構大模型,完成同樣的計算,可能耗上萬瓦的電。類腦計算是下一代 AI 的關鍵。" 周芃表示,Transformer 是驅動了上一輪 AI 工業革命的蒸氣機,但其已過時。新一代類腦架構才是真正能夠帶領人類走向通用人工智能的高速鐵路。
周芃是湖南人,1996 年出生,16 歲考上華中科技大學啟明實驗班,2022 年,在加州大學圣克魯斯分校獲得博士學位。畢業前后,周芃在多家海外頂尖實驗室與人工智能企業工作,進行類腦智能研究。她發表了多篇論文,獲得了多項專利,在多個頂級期刊和會議擔任審稿人,還是多個海內外開源大模型社群的核心貢獻者與首要研發者。
周芃的研究興趣橫跨類腦硬件設計與類腦軟件算法,在軟件硬件雙向定制研發、交叉賦能、提升 AI 軟件硬件匹配程度上取得了全球獨家學術成果。2023 年,國際電氣電子工程師協會(IEEE)向周芃頒發了電路與系統領域年度最高學術獎項 " 達靈頓獎 "(The Darlington Award)。時年 27 歲的周芃,是該獎項設立以來最年輕的得主。
周芃一直關注國內主權 AI 的發展,加上西方國家對華裔科研人員的區別對待,她決定回國創業。周芃認為,在國際 AI 競爭的大背景下,中國必須做主權架構模型。" 為什么有安卓,我們還要做鴻蒙?為什么有英偉達,我們還要做昇騰?自研架構是主權問題。"
2023 年,周芃和學生時代結識的好友汪博倫,一起回國,在深圳成立公司,汪博倫任 CEO,周芃擔任 CTO。公司名字 " 陸兮科技 ",取自第一位直立行走的人類 "Lucy"。
打破對英偉達的依賴 能耗降低 80%
類腦架構的落地,是一場橫跨算法、芯片與半導體的 " 極限挑戰 "。算法上,要模擬人腦的稀疏計算;芯片設計要存算一體,還要突破國產低制程芯片的性能瓶頸。
" 傳統的 AI 以數據驅動為主,但人腦的計算和存儲不是完全分開的,大腦是存算一體的結構。" 周芃說道。因此,陸兮科技的業務涉及類腦架構搭建、大模型研發、存算一體研究,以及類腦硬件開發。
然而,類腦架構的算法、芯片,乃至半導體都存在瓶頸。周芃說,現在是摩爾定律的黃昏,但做類腦架構的大模型,就要將算法、芯片的難點全部同步突破。
陸兮科技有一支具備芯片 - 算法協同設計經驗的團隊,團隊成員來自加州大學圣克魯茲分校、麻省理工大學、清華大學、華中科技大學、電子科技大學、中國地質大學等海內外高校,擁有谷歌、中美相關類腦芯片公司的工作經驗。通過 " 自研芯片 "+" 軟硬適配 " 的思路,陸兮科技試圖打破大模型對英偉達芯片的依賴。
一方面,陸兮科技在國產成熟制程上研發了大模型定制化 FPGA 芯片,在先進制程上研發了性能強大的大模型 ASIC 芯片。通過元器件層面的存算一體集成,實現元器件合二為一,打破 AI 芯片性能 " 唯制程論 ",喚醒了成熟芯片的性能冗余,用國產 AI 芯片走出了一條突圍之路。
另一方面,陸兮科技與華為、海光等芯片廠商和全國各地的超算、智算中心積極聯動,開展模型 + 芯片軟硬件一體化適配,讓類腦架構能在鋪貨量極大的國產成熟芯片上跑起來。
2024 年 2 月,成立一年的陸兮科技,完成 " 類腦大模型 " 底座模型研發,隨后推出了全流程自主研發的 NEURARK 類腦架構。基于 NEURARK 類腦架構,陸兮科技研發了底座模型、通用模型、行業垂類模型、端側離線模型等多條產品線,滿足不同行業的場景的多樣化需求。
與 Transformer 架構相比,NEURARK 類腦架構運用稀疏激活機制、隱狀態管理、無矩陣乘法架構等核心技術,精準復刻大腦運算與存儲機制,讓大模型像人腦一樣,僅激活相關神經元進行計算和存儲,從而減少無效計算。
這樣的架構,在算力消耗、能源消耗、存儲占用、上下文長度、問答響應延遲等多個維度,實現了數倍的性能提升。
周芃說,NEURARK 類腦大模型在推理效率上較傳統模型提升數倍,能耗降低 80% 以上。這一優勢使其在低制程芯片上的部署表現更為突出,大模型可在包括 FPGA 在內的低制程 + 低功耗芯片上,實現 10B 量級的大規模部署。這對于降低大模型算力與能源消耗、打破芯片行業壟斷有重大意義。
" 我們的類腦模型產品線,每款產品都有一個最鮮明的特點:不需要英偉達的 GPU 就能跑得動。" 周芃介紹," 陸兮科技的大參數量級模型,在傳統的 CPU 集群上能運行;終端的中級參數量模型,能在筆記本和家用電腦的 CPU 上運行;而端側小模型,在手機處理器上就能跑。"
全流程自主研發的類腦架構,確保了技術的自主可控,避免了對國外技術的依賴。目前,陸兮 NLM 類腦大模型,通過了國家網信辦《生成式人工智能服務備案》、《深度合成算法備案》,是我國首個采用類腦技術路線、通過兩項備案、獲準上線公開運行的國產自研底層架構大模型。
賦能千行百業 沖擊 6000 億參數規模
"AI 的未來不是快速地流量變現,而是用最前瞻的科技研究、最穩定可靠的智能產品、最豐富普適的功能,創造新質生產力,賦能千行百業高質量發展。水利預測、醫療康復……這些才是國家真正的需求。" 周芃說。
目前,陸兮類腦大模型已在醫療、康養、水利、能源、安防、消費電子等 20 余個基礎設施行業實現全面預部署,與中國電子、水利部長江水利委員會、聯通、中國田徑協會等多個國央企、行業頭部企業合作。其中,陸兮科技類腦醫療大模型已在多家三甲醫院、醫聯體網絡醫院與重點科室實現全面部署。
在這些應用場景中,陸兮科技的類腦大模型,有效提升了工作效率和準確性。例如,通過對洪澇災害進行預報、預警、預演和預案,提高了災害預警的科學性。
與國央企共同研發推廣通用醫療大模型、糖尿 + 甲乳專病大模型,提高了診斷的準確性和效率。
在端側,陸兮科技 "NLM-GPT" 剛亮相時,僅需使用手機自帶處理器與存儲硬件,能在一臺普通安卓手機的離線模式下運行,完成工作與生活中的各項任務。
目前,陸兮科技的端側大模型,已成功部署在手機、手表、手環、耳機、電視、會議設備、智能家居等終端設備中,并在百元級的消費類電子產品中實現 100% 離線端側部署。
在陸兮科技,女性員工數量超過了一半以上,公司致力于性別平等,提倡員工共同養育子女、處理家庭事務,打造一個更包容、支持女性的工作環境。" 女性從年輕時就經歷了無數挑戰,形成了強大的韌性,遇到各種艱難險阻,我們都能逢山開路,遇水架橋。陸兮科技創始人的女性身份,對于公司長期、穩健、可持續發展,是極大的優勢。" 周芃說。
研究顯示,人腦的突觸連接總數在 100 萬億左右,相當于 100 萬億的參數規模。而當前最先進的 GPT-4 參數規模約為 1.8 萬億,和人腦參數規模差了 55 倍。
目前,陸兮科技大模型的參數規模為 580 億。周芃透露,公司正在沖刺下一量級的規模,預計 2025 年將大模型參數規模提升至 6000 億。
周芃認為,類腦架構將會厚積薄發,轉折點就在于模型參數規模的擴大,直到逼近人腦的規模。
"Transformer 是近年來發展最快的架構,但之后會趨向平緩。類腦架構在緩慢發展后,將迎來爆發。" 周芃對未來的發展信心滿滿。
本文為創業邦原創,未經授權不得轉載,否則創業邦將保留向其追究法律責任的權利。如需轉載或有任何疑問,請聯系 editor@cyzone.cn。