Skip to Content
DocumentationCatalogue de modèles

Catalogue de modèles

OfoxAI offre un accès unifié aux principaux LLMs. Vous pouvez parcourir tous les modèles disponibles dans le catalogue de modèles OfoxAI , ou obtenir les informations complètes des modèles de manière programmatique via l’API Models.

Convention de nommage

Tous les modèles suivent le format provider/model-name :

anthropic/claude-sonnet-4.5 google/gemini-3-flash-preview moonshotai/kimi-k2.5

Standard de l’API Models

L’API Models d’OfoxAI suit le standard OpenRouter et retourne les métadonnées complètes de chaque modèle au format JSON.

Structure de la réponse

Objet racine

{ "object": "list", "data": [ /* Tableau d'objets Model */ ] }

Objet Model

Chaque modèle contient les champs standardisés suivants :

ChampTypeDescription
idstringIdentifiant du modèle utilisé dans les requêtes API, ex. "anthropic/claude-sonnet-4.5"
canonical_slugstringIdentifiant permanent du modèle, ne change pas
namestringNom d’affichage du modèle
creatednumberDate d’ajout (timestamp Unix)
descriptionstringDescription détaillée des capacités et caractéristiques
context_lengthnumberTaille maximale de la fenêtre de contexte (en tokens)
architectureArchitectureInformations sur l’architecture technique du modèle
pricingPricingInformations tarifaires
top_providerTopProviderConfiguration du fournisseur principal
supported_parametersstring[]Liste des paramètres API pris en charge

Objet Architecture

Décrit les modalités d’entrée/sortie et les informations du tokeniseur :

{ "modality": "text+image+file->text", "input_modalities": ["text", "image", "file"], "output_modalities": ["text"], "tokenizer": "claude", "instruct_type": null }
ChampDescription
modalityRésumé des modalités entrée/sortie, ex. text+image->text
input_modalitiesTypes d’entrée pris en charge : text, image, audio, file
output_modalitiesTypes de sortie pris en charge : text
tokenizerType de tokeniseur
instruct_typeType de format d’instructions (certains modèles sont null)

Objet Pricing

Tous les prix sont en USD/token. Une valeur de "0" signifie gratuit.

{ "prompt": "0.000001", "completion": "0.000005", "input_cache_read": "0.0000001", "input_cache_write_5m": "0.00000125", "input_cache_write_1h": "0.000002" }
ChampDescription
promptPrix par token d’entrée
completionPrix par token de sortie
input_cache_readPrix par token de lecture du cache
input_cache_write_5mPrix par token d’écriture du cache 5 minutes
input_cache_write_1hPrix par token d’écriture du cache 1 heure

Les différents modèles utilisent des méthodes de tokenisation différentes, ce qui signifie que le nombre de tokens (et le coût) peut varier même avec la même entrée et sortie. Utilisez le champ usage de la réponse pour obtenir la consommation réelle de tokens.

Objet TopProvider

{ "context_length": 200000, "max_completion_tokens": 8192, "is_moderated": false }
ChampDescription
context_lengthLimite de contexte au niveau du fournisseur
max_completion_tokensTokens maximum par réponse
is_moderatedSi la modération du contenu est activée

Paramètres supportés

Le tableau supported_parameters identifie les paramètres compatibles OpenAI pour le modèle :

ParamètreDescription
temperatureContrôle de la température d’échantillonnage
top_pParamètre d’échantillonnage nucleus
max_tokensLongueur maximale de la réponse
stopSéquences d’arrêt personnalisées
toolsFunction Calling / Tool Use
tool_choiceStratégie de sélection d’outils
response_formatSpécification du format de sortie (JSON Mode)
reasoningMode de raisonnement profond

Obtenir la liste des modèles

L’API Models est un endpoint public qui ne nécessite pas de clé API.

Terminal
curl https://api.ofox.ai/v1/models

Pour voir la liste complète des modèles en temps réel et leurs tarifs, visitez le catalogue de modèles OfoxAI . Pour les détails de l’endpoint API, consultez la référence de l’API Models.

Last updated on