GitHub上最受欢迎的LLM API网关
完全本地运行的LLM推理网关,支持GPU加速、模型管理、API兼容OpenAI。 无需云端,完全隐私保护。
统一API访问100+模型,自动路由最优供应商
智能路由知识库问答平台,企业级RAG解决方案
RAG选择最适合您需求的开源方案
| 特性 | LiteLLM | Portkey | LocalAI | OpenRouter |
|---|---|---|---|---|
| 模型数量 | 100+ | 100+ | 50+ | 100+ |
| 本地部署 | ||||
| 负载均衡 | ||||
| 成本控制 | ||||
| 缓存优化 | ||||
| 可观测性 | ||||
| Stars | 18K+ | 8K+ | 12K+ | 5K+ |
选择您喜欢的部署方式
最简单的方式,一行命令启动
Python环境,快速安装
生产环境,高可用部署