Alter fournit un point de terminaison API compatible OpenAI qui vous permet d’utiliser Alter comme routeur unifié pour accéder à plus de 92 modèles d’IA provenant de plus de 10 fournisseurs. Utilisez l’API Alter soit comme backend pour les applications tierces, soit comme service API direct pour vos projets personnalisés.
Utilisation prévue : API Router est conçu pour un usage personnel, des utilitaires légers et des projets à faible volume. Il n’est pas conçu pour des systèmes agentic à haut débit ni pour des services multi-utilisateurs.
Aperçu
La passerelle Alter API est un routeur centralisé qui élimine le besoin de gérer plusieurs clés API et comptes de facturation entre différents fournisseurs d’IA. Au lieu de disperser vos informations de facturation entre de nombreux fournisseurs, vous pouvez utiliser Alter comme point d’entrée unique pour accéder au modèle d’IA.
Qu’est-ce qu’Alter Router ?
Alter lui-même est un service de routeur : une passerelle API unifiée donnant accès à :
- 10+ fournisseurs de modèles d’IA (OpenAI, Gemini, Claude, Mistral, etc.)
- Plus de 92 modèles d’IA individuels
- Authentification et facturation simplifiées
- Changement de modèle facile sans changement de code
Principales fonctionnalités
- Point de terminaison compatible OpenAI prenant en charge les discussions par chat et la liste des modèles
- Facturation centralisée via votre compte Alter
- Accès à tous les modèles depuis des applications externes ou du code personnalisé
- Intégration transparente avec les Tools et SDK compatibles OpenAI existants
- Sélection de modèles flexible parmi tous les fournisseurs
Commencer
1. Générer une clé API
- Ouvrez les paramètres d’Alter (⌘, ou menu Paramètres)
- Accédez à l’onglet Routeur
- Dans la section “clés API Alter”, cliquez sur “Ajouter une nouvelle clé” pour générer une nouvelle clé API.
- Copiez votre clé (commence par
sk-)
Important : Ne partagez jamais votre clé API. Traitez-le comme un mot de passe.
2. Obtenez le point de terminaison
Le point de terminaison du routeur Alter est :
Pour certains Tools, vous devrez peut-être ajouter /v1 :
https://alterhq.com/api/v1
3. Liste des modèles disponibles
Vérifiez quels modèles sont disponibles :
curl https://alterhq.com/api/models \
-H "Authorization: Bearer YOUR_API_KEY"
Cela renvoie les 92+ modèles de 10 fournisseurs avec leurs capacités.
Convention de dénomination des modèles
Lorsque vous utilisez l’API Alter, les noms de modèles suivent ce format :
Exemples :
OpenAI#gpt-5 – Dernier GPT-5
OpenAI#gpt-5-nano – GPT léger
Claude#claude-sonnet-4-6 - Dernière Claude
Gemini#gemini-2.5-pro - Derniers Gemini
Mistral#mistral-small-latest - Modèle Mistral
Alter#best - Le meilleur modèle d’Alter
Méthodes d’utilisation
Pour les applications tierces
Utilisez Alter comme backend pour des Tools comme SillyTavern, NovelCrafter, etc. :
- Définir l’URL de base :
https://alterhq.com/api (ou /v1)
- Entrez votre clé API
- Utilisez le format
Provider#Model-name lors de la sélection des modèles
Pour le développement personnalisé
Python (avec le SDK OpenAI)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://alterhq.com/api/v1"
)
response = client.chat.completions.create(
model="OpenAI#gpt-5",
messages=[
{"role": "user", "content": "What is machine learning?"}
]
)
print(response.choices[0].message.content)
JavaScript (avec le SDK OpenAI)
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: "YOUR_API_KEY",
baseURL: "https://alterhq.com/api/v1",
dangerouslyAllowBrowser: true
});
const completion = await openai.chat.completions.create({
model: "OpenAI#gpt-5",
messages: [
{"role": "user", "content": "Hello!"}
]
});
console.log(completion.choices[0].message.content);
LangChain (Python)
from langchain_openai import ChatOpenAI
chat = ChatOpenAI(
api_key="YOUR_API_KEY",
base_url="https://alterhq.com/api/v1",
model="OpenAI#gpt-5"
)
response = chat.invoke("What is AI?")
print(response.content)
Boucle directe
curl https://alterhq.com/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "OpenAI#gpt-5",
"messages": [
{"role": "user", "content": "What is machine learning?"}
]
}'
Guide de sélection des modèles
Pour la vitesse
Alter#light - Modèle léger
OpenAI#gpt-5-nano – GPT léger
Gemini#gemini-2.5-flash-lite - Gemini rapides
Pour la qualité
Alter#best - Meilleur disponible
OpenAI#gpt-5 – GPT le plus performant
Gemini#gemini-2.5-pro - Gemini puissants
Claude#claude-sonnet-4-6 - Dernière Claude
Pour la vision/images
OpenAI#gpt-5 - Multimodal avancé
Gemini#gemini-2.5-pro - Vision forte
Mistral#pixtral-large-latest - Vision capable
Pour le codage
OpenAI#gpt-5 - Excellent code
Mistral#codestral-2501 - Spécialiste des codes
Claude#claude-sonnet-4-6 - Codage fort
Pour le coût
Alter#fair - Rentable
Alter#light - Le moins cher
OpenAI#gpt-5-nano – TPG budgétaire
Pour la recherche sur le Web
Perplexity#sonar – Compatible avec le Web
Perplexity#sonar-pro - Recherche avancée
Paramètres pris en charge
Les paramètres standard de l’API OpenAI fonctionnent avec Alter :
model - ID du modèle (obligatoire)
messages - Messages de discussion (obligatoire)
temperature - 0,0-2,0 (par défaut : 1,0)
max_tokens - Longueur de réponse maximale
top_p - Échantillonnage de noyau
frequency_penalty - Pénaliser la répétition
presence_penalty - Encouragez les nouveaux sujets
Cas d’utilisation populaires
Intégration d’applications tierces
Backend d’application personnalisé
- Tools internes nécessitant l’IA
- Automatisation du support client
- Systèmes de génération de contenu
- Flux de travail d’analyse des données
Comparaison de modèles et tests A/B
for model_id in ["OpenAI#gpt-5", "Claude#claude-sonnet-4-6", "Gemini#gemini-2.5-pro"]:
# Run same prompt on different models
# Compare outputs
Optimisation des coûts
Utilisez des modèles moins chers pour les tâches à volume élevé et des modèles puissants pour les requêtes complexes.
Configuration
Gestion des clés API
- Générez et gérez des clés API via Paramètres > Routeur
- Gardez les clés API en sécurité : ne les partagez jamais publiquement
- Faites régulièrement pivoter les clés pour des raisons de sécurité
- Utiliser différentes clés pour différents environnements (dev/prod)
Limites d’utilisation
La passerelle API présente des limites d’utilisation équitable :
- Limite quotidienne : 200 requêtes par jour dans le cadre d’une utilisation équitable
- Limitation : après avoir dépassé la limite quotidienne, demande une limitation à 1 toutes les 10 minutes.
- Complément de budget : “Rechargez” votre budget pour un accès cohérent au-delà des limites d’utilisation équitable
Dépannage
Modèles non répertoriés
Si votre application ne répertorie pas les modèles disponibles :
- Spécifiez manuellement le modèle en utilisant le format
Provider#Model-name
- Vérifiez que votre clé API est correcte
- Vérifiez que l’application prend en charge le point de terminaison de liste de modèles
Erreurs d’authentification
- Vérifiez que votre clé API est correctement saisie
- Assurez-vous que vous utilisez le bon point de terminaison :
https://alterhq.com/api ou https://alterhq.com/api/v1
- Vérifiez que votre compte Alter est actif et en règle
Problèmes de connexion
- Vérifiez que l’application prend en charge les points de terminaison compatibles OpenAI
- Assurez-vous que vous utilisez la dernière version d’Alter
- Vérifiez la connectivité réseau à
alterhq.com
Latence élevée
- Essayez un modèle plus rapide (par exemple,
OpenAI#gpt-5-nano)
- Vérifiez votre connexion réseau
- Utilisez le streaming pour les réponses longues
Meilleures pratiques
- Sécurisez votre clé API - Utilisez des variables d’environnement, ne codez jamais en dur
- Surveiller l’utilisation - Suivez les appels d’API et définissez des alertes
- Choisissez les modèles appropriés – Adaptez la capacité du modèle à la complexité de la tâche
- Gérez les erreurs avec élégance - Implémentez une logique de nouvelle tentative avec interruption
- Optimisez les coûts - Utilisez des modèles plus rapides/moins chers pour les tâches de routine
Documents associés