Alter 提供了兼容 OpenAI 的 API 端点,允许您使用 Alter 作为统一路由器来访问来自 10 多个提供商的 92 多个 AI 模型。使用 Alter API 作为第三方应用程序的后端或作为自定义项目的直接 API 服务。
预期用途: API Router 适用于个人使用、轻量工具和低流量项目。它不适用于高吞吐的代理系统蛋糕用户服务。
## 概述
Alter API 网关是一个集中式路由器,无需管理跨不同 AI 提供商的多个 API 密钥和计费帐户。您可以使用 Alter 作为 AI 模型访问的单一入口点,而不是让您的账单详细信息分散在许多提供商中。
什么是更改路由器?
Alter 本身是一个路由器服务——一个统一的 API 网关,提供对以下内容的访问:
- 10+ AI模型提供商(OpenAI、Gemini、Claude、Mistral等)
- 92+ 个单独的 AI 模型
- 简化身份验证和计费
- 无需更改代码即可轻松切换模型
主要特点
- 符合 OpenAI 的端点支持聊天完成和模型列表
- 通过您的 Alter 帐户进行集中计费
- 从外部应用程序或自定义代码访问所有模型
- 与现有 OpenAI 兼容工具和 SDK 无缝集成
- 跨所有提供商的灵活型号选择
## 入门
1. 生成 API 密钥
- 打开更改设置(⌘、 或设置菜单)
- 转到 路由器 选项卡
- 在“更改 API 密钥”部分下,单击“添加新密钥”以生成新的 API 密钥
4.复制您的密钥(以
sk-开头)
**重要提示:**切勿共享您的 API 密钥。将其视为密码。
2. 获取端点
更改路由器端点是:
对于某些工具,您可能需要添加/v1:
https://alterhq.com/api/v1
3. 列出可用型号
检查有哪些型号可用:
curl https://alterhq.com/api/models \
-H "Authorization: Bearer YOUR_API_KEY"
这会返回 10 个提供商的所有 92 个以上模型及其功能。
模型命名约定
使用 Alter API 时,模型名称遵循以下格式:
示例:
OpenAI#gpt-5 - 最新的 GPT-5
OpenAI#gpt-5-nano - 轻量级 GPT
Claude#claude-sonnet-4-6 - 最新克劳德
Gemini#gemini-2.5-pro - 最新的双子座
Mistral#mistral-small-latest - 米斯特拉尔模型
Alter#best - Alter 的最佳模型
使用方法
对于第三方应用程序
使用 Alter 作为 SillyTavern、NovelCrafter 等工具的后端:
1.设置基本URL:https://alterhq.com/api(或/v1)
2. 输入您的API密钥
3、选择型号时使用Provider#Model-name格式
用于定制开发
Python(使用 OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://alterhq.com/api/v1"
)
response = client.chat.completions.create(
model="OpenAI#gpt-5",
messages=[
{"role": "user", "content": "What is machine learning?"}
]
)
print(response.choices[0].message.content)
JavaScript(使用 OpenAI SDK)
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: "YOUR_API_KEY",
baseURL: "https://alterhq.com/api/v1",
dangerouslyAllowBrowser: true
});
const completion = await openai.chat.completions.create({
model: "OpenAI#gpt-5",
messages: [
{"role": "user", "content": "Hello!"}
]
});
console.log(completion.choices[0].message.content);
浪链(Python)
from langchain_openai import ChatOpenAI
chat = ChatOpenAI(
api_key="YOUR_API_KEY",
base_url="https://alterhq.com/api/v1",
model="OpenAI#gpt-5"
)
response = chat.invoke("What is AI?")
print(response.content)
直接卷曲
curl https://alterhq.com/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "OpenAI#gpt-5",
"messages": [
{"role": "user", "content": "What is machine learning?"}
]
}'
选型指南
为了速度
Alter#light - 轻量级模型
OpenAI#gpt-5-nano - 轻量级 GPT
Gemini#gemini-2.5-flash-lite - 快速双子座
为了质量
Alter#best - 最佳可用
OpenAI#gpt-5 - 最有能力的 GPT
Gemini#gemini-2.5-pro - 强大的双子座
Claude#claude-sonnet-4-6 - 最新克劳德
For Vision/Images
OpenAI#gpt-5 - 高级多式联运
Gemini#gemini-2.5-pro - 强烈的愿景
Mistral#pixtral-large-latest - 视觉能力
用于编码
OpenAI#gpt-5 - 优秀的代码
Mistral#codestral-2501 - 代码专家
Claude#claude-sonnet-4-6 - 强大的编码
Alter#fair - 性价比高
Alter#light - 最便宜
OpenAI#gpt-5-nano - 预算 GPT
对于网络搜索
Perplexity#sonar - 网络感知
Perplexity#sonar-pro - 高级搜索
支持的参数
标准 OpenAI API 参数可与 Alter 配合使用:
model - 型号 ID(必填)
messages - 聊天消息(必填)
temperature - 0.0-2.0(默认值:1.0)
max_tokens - 最大响应长度
top_p - 细胞核采样
frequency_penalty - 惩罚重复
presence_penalty - 鼓励新话题
热门用例
第三方应用程序集成
- 傻酒馆 - 角色扮演聊天
- 小说工匠 - 创意写作
- 其他 OpenAI 兼容工具
自定义应用程序后端
- 需要人工智能的内部工具
- 客户支持自动化
- 内容生成系统
- 数据分析工作流程
模型比较和 A/B 测试
for model_id in ["OpenAI#gpt-5", "Claude#claude-sonnet-4-6", "Gemini#gemini-2.5-pro"]:
# Run same prompt on different models
# Compare outputs
成本优化
使用更便宜的模型来处理大批量任务,使用强大的模型来处理复杂的查询。
## 配置
API密钥管理
- 通过 设置 > 路由器 生成和管理 API 密钥
- 确保 API 密钥安全——切勿公开共享
- 定期轮换钥匙以确保安全
- 不同的环境使用不同的密钥(dev/prod)
使用限制
API网关有合理使用限制:
- 每日限制:合理使用情况下每天 200 个请求
- 限制:超过每日限制后,请求限制为每 10 分钟 1 次
- 预算充值:“充值”您的预算,以实现超越合理使用限制的一致访问
故障排除
未列出的型号
如果您的应用程序未列出可用型号:
- 使用
Provider#Model-name格式手动指定模型
- 验证您的API密钥是否正确
- 检查应用程序是否支持模型列表端点
身份验证错误
- 验证您的 API 密钥是否输入正确
- 确保您使用正确的端点:
https://alterhq.com/api 或 https://alterhq.com/api/v1
- 检查您的 Alter 帐户是否处于活动状态且信誉良好
连接问题
- 验证应用程序支持 OpenAI 兼容端点
- 确保您使用的是最新版本的 Alter
- 检查
alterhq.com的网络连接
高延迟
- 尝试更快的模型(例如
OpenAI#gpt-5-nano)
- 检查您的网络连接
- 使用流媒体进行长响应
最佳实践
- 保护您的 API 密钥 - 使用环境变量,切勿硬编码
- 监控使用情况 - 跟踪 API 调用并设置警报
- 选择合适的模型 - 将模型功能与任务复杂性相匹配
- 优雅地处理错误 - 通过退避实现重试逻辑
- 优化成本 - 使用更快/更便宜的模型来执行日常任务
相关文档