英伟达被“偷家”?全新AI芯片横空出世 速度比GPU快十倍
2024-06-04 【 字体:大 中 小 】
芯片推理速度较英伟达GPU提高10倍、成本只有其1/10;运行的大模型生成速度接近每秒500 tokens,碾压ChatGPT-3.5大约40 tokens/秒的速度——短短几天,一家名为Groq的初创公司在AI圈爆火。
Groq读音与马斯克的聊天机器人Grok极为接近,成立时间却远远早于后者。其成立于2016年,定位为一家人工智能解决方案公司。
在Groq的创始团队中,有8人来自仅有10人的谷歌早期TPU核心设计团队。例如,Groq创始人兼CEO Jonathan Ross设计并实现了TPU原始芯片的核心元件,TPU的研发工作中有20%都由他完成,之后他又加入Google X快速评估团队,为谷歌母公司Alphabet设计并孵化了新Bets。

虽然团队脱胎于谷歌TPU,但Groq既没有选择TPU这条路,也没有看中GPU、CPU等路线。Groq选择了一个全新的系统路线——LPU(Language Processing Unit,语言处理单元)。
“我们(做的)不是大模型,”Groq表示,“我们的LPU推理引擎是一种新型端到端处理单元系统,可为AI大模型等计算密集型应用提供最快的推理速度。”
从这里不难看出,“速度”是Groq的产品强调的特点,而“推理”是其主打的细分领域。
Groq也的确做到了“快”,根据Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,由于其他所有云推理供应商。

第三方机构artificialanalysis.ai给出的测评结果也显示,Groq的吞吐量速度称得上是“遥遥领先”。

为了证明自家芯片的能力,Groq还在官网发布了免费的大模型服务,包括三个开源大模型,Mixtral 8×7B-32K、Llama2-70B-4K和Mistral 7B - 8K,目前前两个已开放使用。
LPU旨在克服两个大模型瓶颈:计算密度和内存带宽。据Groq介绍,在 LLM 方面,LPU较GPU/CPU拥有更强大的算力,从而减少了每个单词的计算时间,可以更快地生成文本序列。此外,由于消除了外部内存瓶颈,LPU推理引擎在大模型上的性能比GPU高出几个数量级。
据悉,Groq芯片完全抛开了英伟达GPU颇为倚仗的HBM与CoWoS封装,其采用14nm制程,搭载230MB SRAM,内存带宽达到80TB/s。算力方面,其整型(8位)运算速度为750TOPs,浮点(16位)运算速度为188TFLOPs。
值得注意的是,“快”是Groq芯片主打的优点,也是其使用的SRAM最突出的强项之一。
SRAM是目前读写最快的存储设备之一,但其价格昂贵,因此仅在要求苛刻的地方使用,譬如CPU一级缓冲、二级缓冲。
华西证券指出,可用于存算一体的成熟存储器有Nor Flash、SRAM、DRAM、RRAM、MRAM等。其中,SRAM在速度方面和能效比方面具有优势,特别是在存内逻辑技术发展起来之后,具有明显的高能效和高精度特点。SRAM、RRAM有望成为云端存算一体主流介质。
猜你喜欢
科瑞技术(002957)1月10日主力资金净卖出201287万元
4972
实盘配资网站:风险与机遇并存的投资捷径?
8256
鲍威尔讲话全文最新:3月份加息25个基点合适 美联储将谨慎行事
7665
融资股票:高风险高回报的双刃剑?
9532
皇御环球金融金银评论:【金银早评】美联储陷入两难 金价强势不改
6926
邦达亚洲:美联储官员发表乐观言论 黄金小幅收跌
5728
《丝路金桥》再次亮相长安街,艺术家舒勇架起友谊之桥!
1200
多地倒查新形象工程:设专班受理举报,一地排查近8年盆景
1675
肇庆高新区“扫黄打非·开学第一课”开讲啦!
3221
黄金逼近2320!投资者如何把握市场脉搏?
6115
上海银行“扎堆”发布重要公告,年报季报营收利润双增,顾建忠获提名执行董事
欧洲央行调查:消费者对未来12个月和3年的通胀预期中位数上升
深度|继续瘦身 大家保险的抉择
赶在“股神”退休前!公募见证最后一届巴菲特股东会,两大看点
假期利好不断, 你认为哪一件利好影响最大
登顶开源大模型榜首 阿里Qwen3成色如何?聚焦
最新经济数据的重磅信号!美国房价涨势可能已经见顶
中经评论:跑好探索宇宙的接力赛
北交所制定行动计划!强化对专精特新中小企业审核支持
《九民纪要》解读第十八条:越权担保中善意相对人的认定
