LLM 提供商指南

LibreFang 包含全面的模型目录,覆盖 3 个原生 LLM 驱动20+ 提供商51 个内置模型


快速设置

# 选择一个提供商 - 设置环境变量即可
export GEMINI_API_KEY="your-key"      # 免费额度可用
export GROQ_API_KEY="your-key"        # 免费额度可用
export ANTHROPIC_API_KEY="your-key"
export OPENAI_API_KEY="your-key"

LibreFang 在启动时自动检测哪些提供商已配置 API 密钥。


提供商参考

1. Anthropic

属性
显示名称Anthropic
驱动原生 Anthropic (Messages API)
环境变量ANTHROPIC_API_KEY
基础 URLhttps://api.anthropic.com
免费额度
模型数3

可用模型:

  • claude-opus-4-20250514 (旗舰)
  • claude-sonnet-4-20250514 (智能)
  • claude-haiku-4-5-20251001 (快速)

2. OpenAI

属性
显示名称OpenAI
驱动OpenAI 兼容
环境变量OPENAI_API_KEY
基础 URLhttps://api.openai.com/v1
免费额度
模型数6

可用模型:

  • gpt-4.1 (旗舰)
  • gpt-4o (智能)
  • o3-mini (智能)
  • gpt-4.1-mini (平衡)
  • gpt-4o-mini (快速)
  • gpt-4.1-nano (快速)

3. Google Gemini

属性
显示名称Google Gemini
驱动原生 Gemini
环境变量GEMINI_API_KEYGOOGLE_API_KEY
基础 URLhttps://generativelanguage.googleapis.com
免费额度
模型数5

4. Groq

属性
显示名称Groq
驱动OpenAI 兼容
环境变量GROQ_API_KEY
基础 URLhttps://api.groq.com/openai/v1
免费额度
模型数8

5. DeepSeek

属性
显示名称DeepSeek
驱动OpenAI 兼容
环境变量DEEPSEEK_API_KEY
基础 URLhttps://api.deepseek.com/v1
免费额度
模型数3

6. Ollama (本地)

属性
显示名称Ollama
驱动OpenAI 兼容
环境变量无需
基础 URLhttp://localhost:11434/v1
免费额度本地运行
模型数取决于本地安装

支持的提供商列表

提供商驱动免费额度
Anthropic原生
OpenAIOpenAI 兼容
Gemini原生
GroqOpenAI 兼容
DeepSeekOpenAI 兼容
OpenRouterOpenAI 兼容
TogetherOpenAI 兼容
MistralOpenAI 兼容
FireworksOpenAI 兼容
CohereOpenAI 兼容
PerplexityOpenAI 兼容
xAIOpenAI 兼容
AI21OpenAI 兼容
CerebrasOpenAI 兼容
SambaNovaOpenAI 兼容
HuggingFaceOpenAI 兼容
ReplicateOpenAI 兼容
OllamaOpenAI 兼容本地
vLLMOpenAI 兼容本地
LM StudioOpenAI 兼容本地

模型目录

按能力分类

旗舰模型:

  • claude-opus-4-20250514
  • gpt-4.1

智能模型:

  • claude-sonnet-4-20250514
  • gpt-4o
  • gemini-2.0-flash-exp

快速模型:

  • claude-haiku-4-5-20251001
  • gpt-4o-mini
  • gpt-4.1-nano
  • llama-3.1-70b-versatile

每个 Agent 的模型覆盖

可以在 agent 级别覆盖默认模型:

[model]
provider = "groq"
model = "llama-3.3-70b-versatile"

模型路由

ModelRouter 根据任务复杂度自动选择模型:

  • 简单任务 → 快速/便宜模型
  • 复杂任务 → 智能/昂贵模型

成本追踪

LibreFang 跟踪每个模型的使用成本:

# 查看全局预算
curl http://127.0.0.1:4200/api/budget

# 查看每个 agent 的成本
curl http://127.0.0.1:4200/api/budget/agents

后备提供商

配置后备提供商以提高可靠性:

[[fallback_providers]]
provider = "groq"
model = "llama-3.1-70b-versatile"
api_key_env = "GROQ_API_KEY"

API 端点

# 列出可用模型
curl http://127.0.0.1:4200/api/models

# 列出提供商
curl http://127.0.0.1:4200/api/providers