Catalogue de modèles
OfoxAI offre un accès unifié aux principaux LLMs. Vous pouvez parcourir tous les modèles disponibles dans le catalogue de modèles OfoxAI , ou obtenir les informations complètes des modèles de manière programmatique via l’API Models.
Convention de nommage
Tous les modèles suivent le format provider/model-name :
anthropic/claude-sonnet-4.5
google/gemini-3-flash-preview
moonshotai/kimi-k2.5Standard de l’API Models
L’API Models d’OfoxAI suit le standard OpenRouter et retourne les métadonnées complètes de chaque modèle au format JSON.
Structure de la réponse
Objet racine
{
"object": "list",
"data": [
/* Tableau d'objets Model */
]
}Objet Model
Chaque modèle contient les champs standardisés suivants :
| Champ | Type | Description |
|---|---|---|
id | string | Identifiant du modèle utilisé dans les requêtes API, ex. "anthropic/claude-sonnet-4.5" |
canonical_slug | string | Identifiant permanent du modèle, ne change pas |
name | string | Nom d’affichage du modèle |
created | number | Date d’ajout (timestamp Unix) |
description | string | Description détaillée des capacités et caractéristiques |
context_length | number | Taille maximale de la fenêtre de contexte (en tokens) |
architecture | Architecture | Informations sur l’architecture technique du modèle |
pricing | Pricing | Informations tarifaires |
top_provider | TopProvider | Configuration du fournisseur principal |
supported_parameters | string[] | Liste des paramètres API pris en charge |
Objet Architecture
Décrit les modalités d’entrée/sortie et les informations du tokeniseur :
{
"modality": "text+image+file->text",
"input_modalities": ["text", "image", "file"],
"output_modalities": ["text"],
"tokenizer": "claude",
"instruct_type": null
}| Champ | Description |
|---|---|
modality | Résumé des modalités entrée/sortie, ex. text+image->text |
input_modalities | Types d’entrée pris en charge : text, image, audio, file |
output_modalities | Types de sortie pris en charge : text |
tokenizer | Type de tokeniseur |
instruct_type | Type de format d’instructions (certains modèles sont null) |
Objet Pricing
Tous les prix sont en USD/token. Une valeur de "0" signifie gratuit.
{
"prompt": "0.000001",
"completion": "0.000005",
"input_cache_read": "0.0000001",
"input_cache_write_5m": "0.00000125",
"input_cache_write_1h": "0.000002"
}| Champ | Description |
|---|---|
prompt | Prix par token d’entrée |
completion | Prix par token de sortie |
input_cache_read | Prix par token de lecture du cache |
input_cache_write_5m | Prix par token d’écriture du cache 5 minutes |
input_cache_write_1h | Prix par token d’écriture du cache 1 heure |
Les différents modèles utilisent des méthodes de tokenisation différentes, ce qui signifie que le nombre de tokens (et le coût) peut varier même avec la même entrée et sortie. Utilisez le champ usage de la réponse pour obtenir la consommation réelle de tokens.
Objet TopProvider
{
"context_length": 200000,
"max_completion_tokens": 8192,
"is_moderated": false
}| Champ | Description |
|---|---|
context_length | Limite de contexte au niveau du fournisseur |
max_completion_tokens | Tokens maximum par réponse |
is_moderated | Si la modération du contenu est activée |
Paramètres supportés
Le tableau supported_parameters identifie les paramètres compatibles OpenAI pour le modèle :
| Paramètre | Description |
|---|---|
temperature | Contrôle de la température d’échantillonnage |
top_p | Paramètre d’échantillonnage nucleus |
max_tokens | Longueur maximale de la réponse |
stop | Séquences d’arrêt personnalisées |
tools | Function Calling / Tool Use |
tool_choice | Stratégie de sélection d’outils |
response_format | Spécification du format de sortie (JSON Mode) |
reasoning | Mode de raisonnement profond |
Obtenir la liste des modèles
L’API Models est un endpoint public qui ne nécessite pas de clé API.
cURL
curl https://api.ofox.ai/v1/modelsPour voir la liste complète des modèles en temps réel et leurs tarifs, visitez le catalogue de modèles OfoxAI . Pour les détails de l’endpoint API, consultez la référence de l’API Models.