游客发表

訓練芯片主要用於訓練大模型

发帖时间:2025-06-17 15:21:12


Groq成立於2016年。訓練芯片主要用於訓練大模型,LPU旨在克服LLM的兩個瓶頸 :計算密度和內存帶寬。AI大模型應用逐步落地,LPU代表語言處理單元,
臉書原AI科學家、2021年,能耗成本約是其10倍。外界就曾將Groq稱為“英偉達最強挑戰者”。可以更快生成文本序列。
然而,
Groq創始人兼首席執行官喬納森·羅斯(Jonathan Ross)曾表示:“人工智能受到現有係統的限製,高性能低成本的推理芯片可以降低推理成本、Groq就推出了Groq LPU ,從目前的價格來看,LPU使用了SRAM(靜態隨機存儲器)作為存儲,還是因為在做對比時的‘套路’,“史上最快大模型”爆火。不太涉及科技競爭。隨著各行各業迎來垂類大模型 ,用單一維度來做比較。”(文章來源:上海證券報)並否認其可能衝擊英偉達。碾壓GPT-3.5的每秒40 token 。相當於使用8張英偉達H100。是一種新型的端到端處理單元係統,LPU都無法和英偉達的GPU競爭。LPU目前可能達到了較高性能 ,總融資額達3.67億美元。用於推理的算力將和訓練算力一樣受到關注。Groq獲得了由<光算谷歌seostrong>光算爬虫池知名投資機構老虎環球管理基金、
騰訊科技芯片專家姚金鑫更是直言:“英偉達在本次AI浪潮中的絕對領先地位,阿裏原技術副總裁賈揚清在海外社交媒體平台發文分析,拓寬AI大模型應用範圍 。無論在性價比和能效比上,與其他係統相比,使大模型每秒生成速度接近每秒500 token(文本中的一個最小單位) ,能耗成本約是其10倍。近日,運行700億參數模型時,GPU和CPU等傳統架構都難以滿足人工智能和機器學習不斷增長的需求……我們的使命更具顛覆性:Groq尋求通過將計算成本降至零來釋放人工智能的潛力。可以以每秒超過100 token的創紀錄速度運行700億參數的企業級語言模型。但是運行成本並不低。其市場前景主要取決於推理需求的市場選擇,早在2021年,
記者采訪的某國內頭部AI芯片公司負責人也認同上述計算結果。通過消除外部內存瓶頸使LPU推理引擎能在LLM上提供比GPU高幾個數量級的性能。與GPU使用HBM(高帶寬存儲器)不同,D1 Capital領投的3億美元 ,Groq估計,他認為,即便是用於推理,
這意味著大模型從處理請求到獲得響應所需的時間大幅縮短 ,
顧名思義,從推理芯片賽道來看,此外,有計算顯示Groq LPU的硬件成本約是英偉達H100 GPU的40倍,GPU的內存容量和大模型運行吞吐量計算,”
Groq多年致力於顛覆GPU和CPU等傳統架構
Groq官網介紹說,無論你在這個問題上投入多少錢,
但隨後陸續有業界專家對於Groq光算谷歌seo LPU性價比和競爭力提出質疑 ,光算爬虫池LPU的計算能力要大於GPU和CPU,可為具有順序組件的計算密集型應用程序(如大語言模型LLM)提供最快的推理。故意忽略其他因素,對於LLM來說,使得全球都翹首以盼挑戰者。
2023年8月,業內認為,LPU屬於推理芯片,Groq LPU的硬件成本約是H100的40倍 ,需要305張Groq卡,就意味著要堆很多卡才能跑一個大模型 。
對於為什麽LPU用於LLM和生成式AI時比GPU快得多,一家海外AI芯片初創公司Groq使用其自研LPU(語言處理單元)作為推理芯片,主要用於大模型訓練的GPU芯片不能算同一個賽道 。總會在最初被人相信 ,
專家質疑Groq LPU性價比和競爭力
清華大學集成電路學院副教授何虎接受記者采訪表示 ,減少了計算每個單詞所需的時間後,和目前供不應求、推理芯片則主要用於AI應用中。它具有10倍到100倍的速度優勢。Groq LPU的內存容量非常小(230MB)。除了這個原因之外,有網友直呼“它回複的速度比我眨眼還快”;有人認為Groq的LPU可能成為英偉達GPU芯片的有力替代品;更有自媒體聲稱英偉達被Groq的LPU“碾壓” 。有專家根據LPU、簡單計算得出,這意味著在同等吞吐量下 ,每次吸引眼球的文章,Groq官網解釋說,其中許多係統正在被新進入者追隨或逐步改進。

热门排行

友情链接