Passer au contenu principal
Alter fournit un point de terminaison API compatible OpenAI qui vous permet d’utiliser Alter comme routeur unifié pour accéder à plus de 92 modèles d’IA provenant de plus de 10 fournisseurs. Utilisez l’API Alter soit comme backend pour les applications tierces, soit comme service API direct pour vos projets personnalisés.
Utilisation prévue : API Router est conçu pour un usage personnel, des utilitaires légers et des projets à faible volume. Il n’est pas conçu pour des systèmes agentic à haut débit ni pour des services multi-utilisateurs.

Aperçu

La passerelle Alter API est un routeur centralisé qui élimine le besoin de gérer plusieurs clés API et comptes de facturation entre différents fournisseurs d’IA. Au lieu de disperser vos informations de facturation entre de nombreux fournisseurs, vous pouvez utiliser Alter comme point d’entrée unique pour accéder au modèle d’IA.

Qu’est-ce qu’Alter Router ?

Alter lui-même est un service de routeur : une passerelle API unifiée donnant accès à :
  • 10+ fournisseurs de modèles d’IA (OpenAI, Gemini, Claude, Mistral, etc.)
  • Plus de 92 modèles d’IA individuels
  • Authentification et facturation simplifiées
  • Changement de modèle facile sans changement de code

Principales fonctionnalités

  • Point de terminaison compatible OpenAI prenant en charge les discussions par chat et la liste des modèles
  • Facturation centralisée via votre compte Alter
  • Accès à tous les modèles depuis des applications externes ou du code personnalisé
  • Intégration transparente avec les Tools et SDK compatibles OpenAI existants
  • Sélection de modèles flexible parmi tous les fournisseurs

Commencer

1. Générer une clé API

  1. Ouvrez les paramètres d’Alter (⌘, ou menu Paramètres)
  2. Accédez à l’onglet Routeur
  3. Dans la section “clés API Alter”, cliquez sur “Ajouter une nouvelle clé” pour générer une nouvelle clé API.
  4. Copiez votre clé (commence par sk-)
Important : Ne partagez jamais votre clé API. Traitez-le comme un mot de passe.

2. Obtenez le point de terminaison

Le point de terminaison du routeur Alter est :
https://alterhq.com/api
Pour certains Tools, vous devrez peut-être ajouter /v1 :
https://alterhq.com/api/v1

3. Liste des modèles disponibles

Vérifiez quels modèles sont disponibles :
curl https://alterhq.com/api/models \
  -H "Authorization: Bearer YOUR_API_KEY"
Cela renvoie les 92+ modèles de 10 fournisseurs avec leurs capacités.

Convention de dénomination des modèles

Lorsque vous utilisez l’API Alter, les noms de modèles suivent ce format :
<Provider>#<Model-name>

Exemples :

  • OpenAI#gpt-5 – Dernier GPT-5
  • OpenAI#gpt-5-nano – GPT léger
  • Claude#claude-sonnet-4-6 - Dernière Claude
  • Gemini#gemini-2.5-pro - Derniers Gemini
  • Mistral#mistral-small-latest - Modèle Mistral
  • Alter#best - Le meilleur modèle d’Alter

Méthodes d’utilisation

Pour les applications tierces

Utilisez Alter comme backend pour des Tools comme SillyTavern, NovelCrafter, etc. :
  1. Définir l’URL de base : https://alterhq.com/api (ou /v1)
  2. Entrez votre clé API
  3. Utilisez le format Provider#Model-name lors de la sélection des modèles

Pour le développement personnalisé

Python (avec le SDK OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://alterhq.com/api/v1"
)

response = client.chat.completions.create(
    model="OpenAI#gpt-5",
    messages=[
        {"role": "user", "content": "What is machine learning?"}
    ]
)

print(response.choices[0].message.content)

JavaScript (avec le SDK OpenAI)

import OpenAI from 'openai';

const openai = new OpenAI({
    apiKey: "YOUR_API_KEY",
    baseURL: "https://alterhq.com/api/v1",
    dangerouslyAllowBrowser: true
});

const completion = await openai.chat.completions.create({
    model: "OpenAI#gpt-5",
    messages: [
        {"role": "user", "content": "Hello!"}
    ]
});

console.log(completion.choices[0].message.content);

LangChain (Python)

from langchain_openai import ChatOpenAI

chat = ChatOpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://alterhq.com/api/v1",
    model="OpenAI#gpt-5"
)

response = chat.invoke("What is AI?")
print(response.content)

Boucle directe

curl https://alterhq.com/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "OpenAI#gpt-5",
    "messages": [
      {"role": "user", "content": "What is machine learning?"}
    ]
  }'

Guide de sélection des modèles

Pour la vitesse

  • Alter#light - Modèle léger
  • OpenAI#gpt-5-nano – GPT léger
  • Gemini#gemini-2.5-flash-lite - Gemini rapides

Pour la qualité

  • Alter#best - Meilleur disponible
  • OpenAI#gpt-5 – GPT le plus performant
  • Gemini#gemini-2.5-pro - Gemini puissants
  • Claude#claude-sonnet-4-6 - Dernière Claude

Pour la vision/images

  • OpenAI#gpt-5 - Multimodal avancé
  • Gemini#gemini-2.5-pro - Vision forte
  • Mistral#pixtral-large-latest - Vision capable

Pour le codage

  • OpenAI#gpt-5 - Excellent code
  • Mistral#codestral-2501 - Spécialiste des codes
  • Claude#claude-sonnet-4-6 - Codage fort

Pour le coût

  • Alter#fair - Rentable
  • Alter#light - Le moins cher
  • OpenAI#gpt-5-nano – TPG budgétaire

Pour la recherche sur le Web

  • Perplexity#sonar – Compatible avec le Web
  • Perplexity#sonar-pro - Recherche avancée

Paramètres pris en charge

Les paramètres standard de l’API OpenAI fonctionnent avec Alter :
  • model - ID du modèle (obligatoire)
  • messages - Messages de discussion (obligatoire)
  • temperature - 0,0-2,0 (par défaut : 1,0)
  • max_tokens - Longueur de réponse maximale
  • top_p - Échantillonnage de noyau
  • frequency_penalty - Pénaliser la répétition
  • presence_penalty - Encouragez les nouveaux sujets

Cas d’utilisation populaires

Intégration d’applications tierces

Backend d’application personnalisé

  • Tools internes nécessitant l’IA
  • Automatisation du support client
  • Systèmes de génération de contenu
  • Flux de travail d’analyse des données

Comparaison de modèles et tests A/B

for model_id in ["OpenAI#gpt-5", "Claude#claude-sonnet-4-6", "Gemini#gemini-2.5-pro"]:
    # Run same prompt on different models
    # Compare outputs

Optimisation des coûts

Utilisez des modèles moins chers pour les tâches à volume élevé et des modèles puissants pour les requêtes complexes.

Configuration

Gestion des clés API

  • Générez et gérez des clés API via Paramètres > Routeur
  • Gardez les clés API en sécurité : ne les partagez jamais publiquement
  • Faites régulièrement pivoter les clés pour des raisons de sécurité
  • Utiliser différentes clés pour différents environnements (dev/prod)

Limites d’utilisation

La passerelle API présente des limites d’utilisation équitable :
  • Limite quotidienne : 200 requêtes par jour dans le cadre d’une utilisation équitable
  • Limitation : après avoir dépassé la limite quotidienne, demande une limitation à 1 toutes les 10 minutes.
  • Complément de budget : “Rechargez” votre budget pour un accès cohérent au-delà des limites d’utilisation équitable

Dépannage

Modèles non répertoriés

Si votre application ne répertorie pas les modèles disponibles :
  • Spécifiez manuellement le modèle en utilisant le format Provider#Model-name
  • Vérifiez que votre clé API est correcte
  • Vérifiez que l’application prend en charge le point de terminaison de liste de modèles

Erreurs d’authentification

  • Vérifiez que votre clé API est correctement saisie
  • Assurez-vous que vous utilisez le bon point de terminaison : https://alterhq.com/api ou https://alterhq.com/api/v1
  • Vérifiez que votre compte Alter est actif et en règle

Problèmes de connexion

  • Vérifiez que l’application prend en charge les points de terminaison compatibles OpenAI
  • Assurez-vous que vous utilisez la dernière version d’Alter
  • Vérifiez la connectivité réseau à alterhq.com

Latence élevée

  • Essayez un modèle plus rapide (par exemple, OpenAI#gpt-5-nano)
  • Vérifiez votre connexion réseau
  • Utilisez le streaming pour les réponses longues

Meilleures pratiques

  1. Sécurisez votre clé API - Utilisez des variables d’environnement, ne codez jamais en dur
  2. Surveiller l’utilisation - Suivez les appels d’API et définissez des alertes
  3. Choisissez les modèles appropriés – Adaptez la capacité du modèle à la complexité de la tâche
  4. Gérez les erreurs avec élégance - Implémentez une logique de nouvelle tentative avec interruption
  5. Optimisez les coûts - Utilisez des modèles plus rapides/moins chers pour les tâches de routine

Documents associés