LLM
LITELLM
ONLINE
★ UNIFIED LLM GATEWAY ★

LITELLM PROXY

一个API,连接所有大模型。统一接口、负载均衡、成本控制、预算管理。

100+
支持模型
80%
成本降低
<1ms
网关延迟
99.9%
可用性

// 核心功能

🔄

统一接口

一个API调用所有LLM

⚖️

负载均衡

自动轮询/故障转移

💰

成本控制

预算限制/使用追踪

🔐

安全认证

API Key/OAuth/JWT

📊

监控日志

Prometheus/Langfuse

🏢

企业特性

SSO/私有部署

// 支持模型

100+ 模型,一个API

🤖

GPT-4

OpenAI

输入: $30/1M 输出: $60/1M
🧠

Claude-3

Anthropic

输入: $15/1M 输出: $75/1M
🦙

Llama 3

Meta

输入: $0.8/1M 输出: $0.8/1M

Gemini Pro

Google

输入: $1.25/1M 输出: $5/1M
🔥

Mistral

Mistral AI

输入: $0.6/1M 输出: $0.6/1M
🌐

Cohere

Cohere

输入: $1/1M 输出: $3/1M

// 价格方案

特性 免费版 Pro Enterprise
模型数量 100+ 100+ 100+
请求限制 1000/天 无限 无限
团队成员 1 5 无限
负载均衡
成本控制 基础 高级 自定义
SSO
支持 社区 优先 专属
价格 免费 $50/月 联系销售

// 快速部署

# Docker部署
docker run \
  -p 4000:4000 \
  -v $(pwd)/config.yaml:/app/config.yaml \
  ghcr.io/berriai/litellm:main-latest \
  --config /app/config.yaml
# config.yaml 配置
model_list:
  - model_name: gpt-4
    litellm_params:
      model: gpt-4
      api_key: os.environ/OPENAI_API_KEY
      
  - model_name: claude-3
    litellm_params:
      model: claude-3-opus-200k
      api_key: os.environ/ANTHROPIC_API_KEY