简介

Groq 是以极速推理著称的 AI 平台,使用自研的 LPU(Language Processing Unit)芯片,提供业界最快的模型推理速度。

核心特点

  • 极速推理:LPU 芯片,速度远超 GPU
  • 超低延迟:毫秒级响应
  • 开源模型:Llama、Mistral、Gemma 等
  • 免费额度:慷慨的免费使用量

速度优势

Groq 的推理速度可达:

  • Llama 3: 500+ tokens/秒
  • 比 GPU 推理快 10-20 倍

支持的模型

模型说明
Llama 3.3 70BMeta 最新模型
Mixtral 8x7BMistral MoE 模型
Gemma 2Google 开源模型

免费额度

  • 每日免费请求次数
  • 适合原型开发和测试

官方链接

适用场景

  • 实时对话应用
  • 低延迟要求场景
  • 快速原型开发
  • 流式输出体验