AI芯片初创公司Groq在新一轮融资中募集到6.4亿美元

光纤在线编辑部  2024-08-07 11:59:27  文章来源:原文转载  

导读:美国人工智能(AI)芯片初创公司Groq于当地时间周一成功获得了6.4亿美元的D轮融资,以加强其云端大模型推理能力。

8/07/2024,光纤在线讯,8月6日消息,美国人工智能(AI)芯片初创公司Groq于当地时间周一成功获得了6.4亿美元的D轮融资,以加强其云端大模型推理能力。

    据了解,Groq最新一轮融资由 BlackRock、Neuberger Berman、Type One Ventures、Cisco Investments、Global Brain 和 Samsung T催化剂等公司领投。

    这家总部位于美国加利福尼亚州山景城的初创公司成立于 2016 年,是一家 AI 芯片生产商,旨在实现高吞吐量、低成本的推理,而不是训练。该公司核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。Groq 创始人兼CEO Jonathan Ross是谷歌TPU项目的核心研发人员。该公司硬件工程副总裁Jim Miller 曾是亚马逊云计算服务AWS设计算力硬件的负责人,还曾在英特尔领导了所有 Pentium II 工程。截至目前,Groq 总共筹集了超过 10 亿美元,现在的估值已达 28 亿美元。

    今年2月,Groq推出了全球首个基于LPU(Language Processing Unit)方案的大模型推理芯片,作为一款基于全新的TSA 架构的Tensor Streaming Processor (TSP) 芯片,旨在提高机器学习和人工智能等计算密集型工作负载的性能。

    虽然Groq的LPU并没有采用更本高昂的尖端制程工艺,而是选择了14nm制程,但是凭借自研的TSA 架构,Groq LPU 芯片具有高度的并行处理能力,可以同时处理数百万个数据流,并该芯片还集成了230MB容量的SRAM来替代DRAM,以保证内存带宽,其片上内存带宽高达80TB/s。

    根据官方的数据显示,Groq的LPU芯片的性能表现相当出色,可以提供高达1000 TOPS (Tera Operations Per Second) 的计算能力,并且在某些机器学习模型上的性能表现可以比常规的 GPU 和 TPU 提升10到100倍。

    Groq表示,基于其LPU芯片的云服务器在Llama2或Mistreal模型在计算和响应速度上远超基于Nvidia AI GPU的ChatGPT,其每秒可以生成高达500个 token。相比之下,目前ChatGPT-3.5的公开版本每秒只能生成大约40个token。由于ChatGPT-3.5主要是基于NVIDIA的GPU,也就是说,Groq LPU芯片的响应速度达到了NVIDIA  GPU的10倍以上。Groq表示,相对于其他云平台厂商的大模型推理性能,基于其LPU芯片的云服务器的大模型推理性能最终实现了比其他云平台厂商快18倍。

    另外,在能耗方面,英伟达GPU需要大约10到30焦耳才能生成响应中的tokens,而Groq LPU芯片仅需1到3焦耳,在推理速度大幅提升10倍的同时,其能耗成本仅有英伟达GPU的十分之一,这等于是性价比提高了100倍。

    Groq的策略是使用光纤互连将数百个LPU拼接在一起,每个LPU都装有片上SRAM。通过使用 576 个 LPU 的集群,Groq 声称它能够在 META 的 Llama 2 70B 模型上实现每秒超过 300 个令牌的生成速率,是具有 8 个 GPU 的 HGX H100 系统的 10 倍,同时消耗十分之一的功率。

    Groq公司在演示中展示了其芯片的强大性能,支持Mistral AI的Mixtral8x7B SMoE,以及Meta的Llama2的7B和70B等多种模型,支持使用4096字节的上下文长度,并可直接体验Demo。不仅如此,Groq还喊话各大公司,扬言在三年内超越英伟达。目前该公司的LPU推理芯片在第三方网站上的售价为2万多美元,低于NVIDIA H100的2.5-3万美元。

来源:芯智讯-浪客剑
关键字: Groq AI芯片 融资
光纤在线

光纤在线公众号

更多猛料!欢迎扫描左方二维码关注光纤在线官方微信
微信扫描二维码
使用“扫一扫”即可将网页分享至朋友圈。