Skip to Content
Referência da APIProtocolo compatível com OpenAIChat Completions

Chat Completions

Crie respostas de completação de chat. Suporta geração de texto, entrada multimodal, function calling, streaming e mais.

Endpoint

POST https://api.ofox.ai/v1/chat/completions

Parâmetros da requisição

ParâmetroTipoObrigatórioDescrição
modelstringIdentificador do modelo, ex: openai/gpt-4o
messagesarrayArray de mensagens
temperaturenumberTemperatura de amostragem 0-2, padrão 1
max_tokensnumberNúmero máximo de tokens gerados
streambooleanHabilitar resposta em streaming
top_pnumberParâmetro de amostragem nucleus
frequency_penaltynumberPenalidade de frequência -2 a 2
presence_penaltynumberPenalidade de presença -2 a 2
toolsarrayDefinições de ferramentas disponíveis (Function Calling)
tool_choicestring/objectEstratégia de seleção de ferramenta
response_formatobjectFormato de resposta (JSON Mode)
providerobjectExtensão OfoxAI: configuração de roteamento e failover

Formato da Message

interface Message { role: 'system' | 'user' | 'assistant' | 'tool' content: string | ContentPart[] // Texto ou conteúdo multimodal name?: string tool_calls?: ToolCall[] // Chamadas de ferramenta em mensagens do assistant tool_call_id?: string // ID da chamada para mensagens de tool } // Conteúdo multimodal type ContentPart = | { type: 'text'; text: string } | { type: 'image_url'; image_url: { url: string; detail?: 'auto' | 'low' | 'high' } }

Exemplos de requisição

Terminal
curl https://api.ofox.ai/v1/chat/completions \ -H "Authorization: Bearer $OFOX_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "openai/gpt-4o", "messages": [ {"role": "system", "content": "Você é um assistente útil."}, {"role": "user", "content": "Explique o que é um API Gateway"} ], "temperature": 0.7 }'

Formato da resposta

{ "id": "chatcmpl-abc123", "object": "chat.completion", "created": 1703123456, "model": "openai/gpt-4o", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "Um API Gateway é um..." }, "finish_reason": "stop" } ], "usage": { "prompt_tokens": 25, "completion_tokens": 150, "total_tokens": 175 } }

Resposta em streaming

Defina stream: true para habilitar resposta SSE em streaming:

stream.py
stream = client.chat.completions.create( model="openai/gpt-4o", messages=[{"role": "user", "content": "Conte uma história"}], stream=True ) for chunk in stream: content = chunk.choices[0].delta.content if content: print(content, end="", flush=True)

Formato da resposta em streaming

Cada chunk é enviado via SSE:

data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"Olá"},"finish_reason":null}]} data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":" mundo"},"finish_reason":null}]} data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]} data: [DONE]

Entrada multimodal (Vision)

Envie imagens para o modelo analisar:

response = client.chat.completions.create( model="openai/gpt-4o", messages=[{ "role": "user", "content": [ {"type": "text", "text": "O que há nesta imagem?"}, {"type": "image_url", "image_url": {"url": "https://example.com/image.jpg"}} ] }] )

Modelos com suporte a vision: openai/gpt-4o, anthropic/claude-sonnet-4.5, google/gemini-3-flash-preview e outros. Veja o guia de compreensão visual.

Function Calling

Veja o guia de Function Calling.

Last updated on