中文文档 | English
一个高性能、企业级的 AI 接口透明代理服务,专门为需要集成多种 AI 服务的企业和开发者设计。采用 Go 语言开发,具备智能密钥管理、负载均衡和完善的监控功能,专为高并发生产环境而设计。
详细请查看官方文档
- 透明代理: 完全保留原生 API 格式,支持 OpenAI、Google Gemini 和 Anthropic Claude 等多种格式
- 智能密钥管理: 高性能密钥池,支持分组管理、自动轮换和故障恢复
- 负载均衡: 支持多上游端点的加权负载均衡,提升服务可用性
- 智能故障处理: 自动密钥黑名单管理和恢复机制,确保服务连续性
- 动态配置: 系统设置和分组配置支持热重载,无需重启即可生效
- 企业级架构: 分布式主从部署,支持水平扩展和高可用
- 现代化管理: 基于 Vue 3 的 Web 管理界面,直观易用
- 全面监控: 实时统计、健康检查、详细请求日志
- 高性能设计: 零拷贝流式传输、连接池复用、原子操作
- 生产就绪: 优雅关闭、错误恢复、完善的安全机制
- 双重认证体系: 管理端与代理端认证分离,代理认证支持全局和分组级别密钥
GPT-Load 作为透明代理服务,完整保留各 AI 服务商的原生 API 格式:
- OpenAI 格式: 官方 OpenAI API、Azure OpenAI、以及其他 OpenAI 兼容服务
- Google Gemini 格式: Gemini Pro、Gemini Pro Vision 等模型的原生 API
- Anthropic Claude 格式: Claude 系列模型,支持高质量的对话和文本生成
- Go 1.23+ (源码构建)
- Docker (容器化部署)
- MySQL, PostgreSQL, 或 SQLite (数据库存储)
- Redis (缓存和分布式协调,可选)
docker run -d --name gpt-load \
-p 3001:3001 \
-e AUTH_KEY=sk-123456 \
-v "$(pwd)/data":/app/data \
ghcr.io/tbphp/gpt-load:latest
使用
sk-123456
登录管理界面:http://localhost:3001
安装命令:
# 创建目录
mkdir -p gpt-load && cd gpt-load
# 下载配置文件
wget https://raw.githubusercontent.com/tbphp/gpt-load/refs/heads/main/docker-compose.yml
wget -O .env https://raw.githubusercontent.com/tbphp/gpt-load/refs/heads/main/.env.example
# 启动服务
docker compose up -d
默认安装的是 SQLite 版本,适合轻量单机应用。
如需安装 MySQL, PostgreSQL 及 Redis,请在 docker-compose.yml
文件中取消所需服务的注释,并配置好对应的环境配置重启即可。
其他命令:
# 查看服务状态
docker compose ps
# 查看日志
docker compose logs -f
# 重启服务
docker compose down && docker compose up -d
# 更新到最新版本
docker compose pull && docker compose down && docker compose up -d
部署完成后:
- 访问 Web 管理界面:http://localhost:3001
- API 代理地址:http://localhost:3001/proxy
使用默认的认证 Key
sk-123456
登录管理端,认证 Key 可以在 .env 中修改 AUTH_KEY。
源码构建需要本地已安装数据库(SQLite、MySQL 或 PostgreSQL)和 Redis(可选)。
# 克隆并构建
git clone https://github.com/tbphp/gpt-load.git
cd gpt-load
go mod tidy
# 创建配置
cp .env.example .env
# 修改 .env 中 DATABASE_DSN 和 REDIS_DSN 配置
# REDIS_DSN 为可选,如果不配置则启用内存存储
# 运行
make run
部署完成后:
- 访问 Web 管理界面:http://localhost:3001
- API 代理地址:http://localhost:3001/proxy
使用默认的认证 Key
sk-123456
登录管理端,认证 Key 可以在 .env 中修改 AUTH_KEY。
集群部署需要所有节点都连接同一个 MySQL(或者 PostgreSQL) 和 Redis,并且 Redis 是必须要求。建议使用统一的分布式 MySQL 和 Redis 集群。
部署要求:
- 所有节点必须配置相同的
AUTH_KEY
、DATABASE_DSN
、REDIS_DSN
- 一主多从架构,从节点必须配置环境变量:
IS_SLAVE=true
详细请参考集群部署文档
GPT-Load 采用双层配置架构:
- 特点:应用启动时读取,运行期间不可修改,需重启应用生效
- 用途:基础设施配置,如数据库连接、服务器端口、认证密钥等
- 管理方式:通过
.env
文件或系统环境变量设置
- 系统设置:存储在数据库中,为整个应用提供统一的行为基准
- 分组配置:为特定分组定制的行为参数,可覆盖系统设置
- 配置优先级:分组配置 > 系统设置 > 环境配置
- 特点:支持热重载,修改后立即生效,无需重启应用
静态配置(环境变量)
服务器配置:
配置项 | 环境变量 | 默认值 | 说明 |
---|---|---|---|
服务端口 | PORT |
3001 | HTTP 服务器监听端口 |
服务地址 | HOST |
0.0.0.0 | HTTP 服务器绑定地址 |
读取超时 | SERVER_READ_TIMEOUT |
60 | HTTP 服务器读取超时(秒) |
写入超时 | SERVER_WRITE_TIMEOUT |
600 | HTTP 服务器写入超时(秒) |
空闲超时 | SERVER_IDLE_TIMEOUT |
120 | HTTP 连接空闲超时(秒) |
优雅关闭超时 | SERVER_GRACEFUL_SHUTDOWN_TIMEOUT |
10 | 服务优雅关闭等待时间(秒) |
从节点模式 | IS_SLAVE |
false | 集群部署时从节点标识 |
时区 | TZ |
Asia/Shanghai |
指定时区 |
认证与数据库配置:
配置项 | 环境变量 | 默认值 | 说明 |
---|---|---|---|
管理密钥 | AUTH_KEY |
sk-123456 |
管理端的访问认证密钥 |
数据库连接 | DATABASE_DSN |
./data/gpt-load.db | 数据库连接字符串 (DSN) 或文件路径 |
Redis 连接 | REDIS_DSN |
- | Redis 连接字符串,为空时使用内存存储 |
性能与跨域配置:
配置项 | 环境变量 | 默认值 | 说明 |
---|---|---|---|
最大并发请求 | MAX_CONCURRENT_REQUESTS |
100 | 系统允许的最大并发请求数 |
启用 CORS | ENABLE_CORS |
true | 是否启用跨域资源共享 |
允许的来源 | ALLOWED_ORIGINS |
* |
允许的来源,逗号分隔 |
允许的方法 | ALLOWED_METHODS |
GET,POST,PUT,DELETE,OPTIONS |
允许的 HTTP 方法 |
允许的头部 | ALLOWED_HEADERS |
* |
允许的请求头,逗号分隔 |
允许凭据 | ALLOW_CREDENTIALS |
false | 是否允许发送凭据 |
日志配置:
配置项 | 环境变量 | 默认值 | 说明 |
---|---|---|---|
日志级别 | LOG_LEVEL |
info |
日志级别:debug, info, warn, error |
日志格式 | LOG_FORMAT |
text |
日志格式:text, json |
启用文件日志 | LOG_ENABLE_FILE |
false | 是否启用文件日志输出 |
日志文件路径 | LOG_FILE_PATH |
./data/logs/app.log |
日志文件存储路径 |
代理配置:
GPT-Load 会自动从环境变量中读取代理设置,用于向上游 AI 服务商发起请求。
配置项 | 环境变量 | 默认值 | 说明 |
---|---|---|---|
HTTP 代理 | HTTP_PROXY |
- | 用于 HTTP 请求的代理服务器地址 |
HTTPS 代理 | HTTPS_PROXY |
- | 用于 HTTPS 请求的代理服务器地址 |
无代理 | NO_PROXY |
- | 不需要通过代理访问的主机或域名,逗号分隔 |
支持的代理协议格式:
- HTTP:
http://user:pass@host:port
- HTTPS:
https://user:pass@host:port
- SOCKS5:
socks5://user:pass@host:port
动态配置(热重载)
基础设置:
配置项 | 字段名 | 默认值 | 分组可覆盖 | 说明 |
---|---|---|---|---|
项目地址 | app_url |
http://localhost:3001 |
❌ | 项目基础 URL |
日志保留天数 | request_log_retention_days |
7 | ❌ | 请求日志保留天数,0 为不清理 |
日志写入间隔 | request_log_write_interval_minutes |
1 | ❌ | 日志写入数据库周期(分钟) |
全局代理密钥 | proxy_keys |
初始值为环境配置的 AUTH_KEY | ❌ | 全局生效的代理认证密钥,多个用逗号分隔 |
请求设置:
配置项 | 字段名 | 默认值 | 分组可覆盖 | 说明 |
---|---|---|---|---|
请求超时 | request_timeout |
600 | ✅ | 转发请求完整生命周期超时(秒) |
连接超时 | connect_timeout |
15 | ✅ | 与上游服务建立连接超时(秒) |
空闲连接超时 | idle_conn_timeout |
120 | ✅ | HTTP 客户端空闲连接超时(秒) |
响应头超时 | response_header_timeout |
600 | ✅ | 等待上游响应头超时(秒) |
最大空闲连接数 | max_idle_conns |
100 | ✅ | 连接池最大空闲连接总数 |
每主机最大空闲连接数 | max_idle_conns_per_host |
50 | ✅ | 每个上游主机最大空闲连接数 |
代理服务器地址 | proxy_url |
- | ✅ | 用于转发请求的 HTTP/HTTPS 代理,为空则使用环境配置 |
密钥配置:
配置项 | 字段名 | 默认值 | 分组可覆盖 | 说明 |
---|---|---|---|---|
最大重试次数 | max_retries |
3 | ✅ | 单个请求使用不同密钥的最大重试次数 |
黑名单阈值 | blacklist_threshold |
3 | ✅ | 密钥连续失败多少次后进入黑名单 |
密钥验证间隔 | key_validation_interval_minutes |
60 | ✅ | 后台定时验证密钥周期(分钟) |
密钥验证并发数 | key_validation_concurrency |
10 | ✅ | 后台定时验证无效 Key 时的并发数 |
密钥验证超时 | key_validation_timeout_seconds |
20 | ✅ | 后台定时验证单个 Key 时的 API 请求超时时间(秒) |
访问管理控制台:http://localhost:3001(默认地址)
Web 管理界面提供以下功能:
- 仪表盘: 实时统计信息和系统状态概览
- 密钥管理: 创建和配置 AI 服务商分组,添加、删除和监控 API 密钥
- 请求日志: 详细的请求历史记录和调试信息
- 系统设置: 全局配置管理和热重载
代理接口调用方式
GPT-Load 通过分组名称路由请求到不同的 AI 服务。使用方式如下:
http://localhost:3001/proxy/{group_name}/{原始API路径}
{group_name}
: 在管理界面创建的分组名称{原始API路径}
: 保持与原始 AI 服务完全一致的路径
在 Web 管理界面中配置代理密钥 (Proxy Keys
),可设置系统级别和分组级别的代理密钥。
- 认证方式: 与原生 API 一致,但需将原始密钥替换为配置的代理密钥。
- 密钥作用域: 在系统设置配置的 全局代理密钥 可以在所有分组使用,在分组配置的 分组代理密钥 仅在当前分组有效。
- 格式: 多个密钥使用半角英文逗号分隔。
假设创建了名为 openai
的分组:
原始调用方式:
curl -X POST https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-openai-key" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4.1-mini", "messages": [{"role": "user", "content": "Hello"}]}'
代理调用方式:
curl -X POST http://localhost:3001/proxy/openai/v1/chat/completions \
-H "Authorization: Bearer your-proxy-key" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4.1-mini", "messages": [{"role": "user", "content": "Hello"}]}'
变更说明:
- 将
https://api.openai.com
替换为http://localhost:3001/proxy/openai
- 将原始 API Key 替换为代理密钥
假设创建了名为 gemini
的分组:
原始调用方式:
curl -X POST https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro:generateContent?key=your-gemini-key \
-H "Content-Type: application/json" \
-d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
代理调用方式:
curl -X POST http://localhost:3001/proxy/gemini/v1beta/models/gemini-2.5-pro:generateContent?key=your-proxy-key \
-H "Content-Type: application/json" \
-d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
变更说明:
- 将
https://generativelanguage.googleapis.com
替换为http://localhost:3001/proxy/gemini
- 将 URL 参数中的
key=your-gemini-key
替换为代理密钥
假设创建了名为 anthropic
的分组:
原始调用方式:
curl -X POST https://api.anthropic.com/v1/messages \
-H "x-api-key: sk-ant-api03-your-anthropic-key" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'
代理调用方式:
curl -X POST http://localhost:3001/proxy/anthropic/v1/messages \
-H "x-api-key: your-proxy-key" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{"model": "claude-sonnet-4-20250514", "messages": [{"role": "user", "content": "Hello"}]}'
变更说明:
- 将
https://api.anthropic.com
替换为http://localhost:3001/proxy/anthropic
- 将
x-api-key
头部中的原始 API Key 替换为代理密钥
OpenAI 格式:
/v1/chat/completions
- 聊天对话/v1/completions
- 文本补全/v1/embeddings
- 文本嵌入/v1/models
- 模型列表- 以及其他所有 OpenAI 兼容接口
Gemini 格式:
/v1beta/models/*/generateContent
- 内容生成/v1beta/models
- 模型列表- 以及其他所有 Gemini 原生接口
Anthropic 格式:
/v1/messages
- 消息对话/v1/models
- 模型列表(如果可用)- 以及其他所有 Anthropic 原生接口
OpenAI Python SDK:
from openai import OpenAI
client = OpenAI(
api_key="your-proxy-key", # 使用密钥
base_url="http://localhost:3001/proxy/openai" # 使用代理端点
)
response = client.chat.completions.create(
model="gpt-4.1-mini",
messages=[{"role": "user", "content": "Hello"}]
)
Google Gemini SDK (Python):
import google.generativeai as genai
# 配置 API 密钥和基础 URL
genai.configure(
api_key="your-proxy-key", # 使用代理密钥
client_options={"api_endpoint": "http://localhost:3001/proxy/gemini"}
)
model = genai.GenerativeModel('gemini-2.5-pro')
response = model.generate_content("Hello")
Anthropic SDK (Python):
from anthropic import Anthropic
client = Anthropic(
api_key="your-proxy-key", # 使用代理密钥
base_url="http://localhost:3001/proxy/anthropic" # 使用代理端点
)
response = client.messages.create(
model="claude-sonnet-4-20250514",
messages=[{"role": "user", "content": "Hello"}]
)
重要提示:作为透明代理服务,GPT-Load 完全保留各 AI 服务的原生 API 格式和认证方式,仅需要替换端点地址并使用在管理端配置的代理密钥即可无缝迁移。
MIT 许可证 - 详情请参阅 LICENSE 文件。