▲头图由AI生成
芯东西9月18日消息,今天,美国AI芯片独角兽Groq宣布获得7.5亿美元(折合人民币约53亿元)新融资,投后估值达69亿美元(折合人民币约490亿元),本轮融资由Disruptive领投,三星、思科等参投。
Groq创始人、CEO乔纳森·罗斯(Jonathan Ross)透露,Groq将利用这笔资金扩大数据中心容量,今年和明年将建设新数据中心,计划在今年年内宣布首个亚太地区数据中心的选址。
2024年8月这家独角兽拿下6.4亿美元(折合人民币约45亿元)融资,估值达到28亿美元(折合人民币约199亿元),至今一年时间已实现估值翻倍。据PitchBook估计,Groq迄今为止已筹集了超过30亿美元(折合人民币约213亿元)。
今年6月,罗斯在接受外媒CNBC采访时提到,他们计划在多个方面与包括英伟达在内的竞争对手形成差异化优势。
罗斯曾在谷歌参与TPU研发,2016年离开团队,并与同样出自谷歌的道格拉斯·怀特曼(Douglas Wightman)联手,在美国创立Groq。
Groq将其产品称为LPU,也就是专门针对大模型优化的推理芯片,能效比其他系统高出10倍。
罗斯透露,LPU的效率优势是研究人员多项优化的成果,通过减少开销为推理留下更多的处理能力,可以运行参数规模达到万亿的模型。
具体来看,LPU减少了与使用自定义编译器进行电路协调任务相关的开销,编译器在推理工作负载启动之前优先计算哪个电路应该执行什么任务,这样就无需在运行时在进行计算。
此外,其编译器还使用了一种名为RealScale的改进版本技术,可以仅压缩神经网络在量化时输出质量不会显著下降的部分。
Groq的产品是面向开发人员和企业的,可作为云服务或本地硬件集群使用。
其中本地硬件是服务器机架GroqRack,配备了硬件、软件节点堆栈。该公司将LPU作为GroqRack系统的一部分进行销售。
该系统包括9台服务器,每台服务器可容纳多个LPU。Groq官网提到,与同类设备相比,GroqRack仅需要更少的外部网络硬件,可以降低成本且无需进行重大设施升级即可安装在数据中心。
云服务和本地硬件支持运行Meta、DeepSeek、Qwen、Mistral、谷歌、OpenAI等开源主流模型,9月5日,Groq在云服务平台GroqCloud上线了月之暗面的Kimi-K2-Instruct-0905模型。
值得一提的是,其云平台可以托管LPU驱动的AI模型,开发人员通过应用程序编程接口就能将这些模型集成到他们的软件中。
Groq的博客透露,该公司已经为超过200万名开发人员打造的AI应用提供支持。
同时,Groq正加速在全球业务布局。
今年4月,Groq宣布与Meta合作提供AI基础设施以加速Llama 4推理速度;今年5月,Groq宣布与加拿大电信公司贝尔建立独家合作伙伴关系,为这家电信公司的大型AI基础设施项目提供支持;在数据中心层面,今年7月,Groq启用了位于芬兰赫尔辛基的首个欧洲数据中心。
目前,基于已在美国、加拿大和沙特构建的额外算力基础设施,Groq全球网络每秒可处理超2000万个Token。
今年年初,据The Information报道,Groq向投资者透露有望在2025年实现超20亿美元营收,而如今这一营收预期已经降至5亿美元以上。该公司透露,这是因为其原计划部署数据中心的地区缺乏足够运力,部分营收预期被调至2026年。
这表明,Groq在试图赢得大客户订单时,可能会在寻求足够数据中心容量方面遇到困难。