Acesse a série flagship V4 de 2026 do DeepSeek (V4-Pro e V4-Flash) via o endpoint unificado /chat/completions do TokenHub. Totalmente OpenAI-Compatible — o SDK oficial openai funciona imediatamente. Streaming, uso de ferramentas e modo de raciocínio com reasoning_content também são suportados. Janela de contexto de 1M, 384K max_tokens de saída e cobrança por token com base no preço do catálogo do DeepSeek.
th-xxxxxxxxxxxx...)https://tokenhub.store/api/v1Passe a API Key no cabeçalho Authorization:
Authorization: Bearer th-your-api-keyPOST/chat/completionsConclusão de chat. Mesmo schema de OpenAI /v1/chat/completions, com streaming, tools, modo JSON e campos de raciocínio específicos do DeepSeek.
O preço é por 1 milhão de tokens (USD), com base no preço de tabela do catálogo do DeepSeek (sem desconto promocional aplicado). Tanto o ID canônico quanto o alias deepseek/* são aceitos. A cobrança usa os completion_tokens retornados pelo upstream (que já incluem reasoning_tokens).
| Nível | ID do model | Entrada | Saída | Observações |
|---|---|---|---|---|
| V4-Pro | deepseek-v4-pro | $1.80 | $3.60 | Flagship top-tier de 2026. Melhor qualidade de raciocínio e código. |
| V4-Flash | deepseek-v4-flash | $0.15 | $0.30 | Flagship ultracusto-efetivo, cerca de 12× mais barato que o Pro; excelente padrão para produção. |
| Parâmetro | Tipo | Obrigatório | Padrão | Descrição |
|---|---|---|---|---|
| model | string | Obrigatório | — | ID do model DeepSeek V4. Exemplo: "deepseek/deepseek-v4-flash". |
| messages | array | Obrigatório | — | Histórico do chat. Cada item é { role, content }. role ∈ system | user | assistant | tool. |
| max_tokens | integer | Opcional | upstream default | Máximo de tokens de saída. Se omitido, o DeepSeek usa o padrão do upstream (até 384K). No modo de raciocínio, a contagem INCLUI tokens de raciocínio — não defina um valor muito baixo. |
| temperature | number | Opcional | 1.0 | Sampling temperature, 0.0–2.0. Lower = more deterministic. DeepSeek recommends 0.0 for code, 1.3 for creative writing. |
| top_p | number | Opcional | 1.0 | Amostragem de núcleo. Use temperature OU top_p, não ambos. |
| stream | boolean | Opcional | false | Se verdadeiro, retorna deltas de Server-Sent Events (SSE). |
| thinking | object | Opcional | {type:'enabled'} | Específico do DeepSeek. Passe { type: 'disabled' } via extra_body para pular a fase de raciocínio e obter respostas mais rápidas/baratas. Padrão: habilitado. |
| reasoning_effort | string | Opcional | medium | Profundidade do raciocínio: low | medium | high. Maior = mais reasoning tokens, melhor qualidade, maior custo. |
| tools | array | Opcional | — | Lista de definições de ferramentas/funções para uso de ferramentas (function calling). |
| tool_choice | string|object | Opcional | auto | Controle a seleção de ferramentas: auto | none | required | { type:'function', function:{ name } }. |
| response_format | object | Opcional | — | Modo JSON: { "type": "json_object" } força o model a retornar JSON válido. |
curl https://tokenhub.store/api/v1/chat/completions \
-H "Authorization: Bearer th-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek/deepseek-v4-flash",
"messages": [
{"role": "system", "content": "You are a concise assistant."},
{"role": "user", "content": "Explain CAP theorem in 3 bullets."}
],
"temperature": 0.3
}'from openai import OpenAI
client = OpenAI(
api_key="th-your-api-key",
base_url="https://tokenhub.store/api/v1",
)
resp = client.chat.completions.create(
model="deepseek/deepseek-v4-flash",
temperature=0.3,
messages=[
{"role": "system", "content": "You are a concise assistant."},
{"role": "user", "content": "Explain CAP theorem in 3 bullets."},
],
)
msg = resp.choices[0].message
# DeepSeek V4 returns the chain-of-thought in a separate field
print("Thinking:", getattr(msg, "reasoning_content", None))
print("Answer: ", msg.content)
print("Usage: ", resp.usage)import OpenAI from "openai";
const client = new OpenAI({
apiKey: "th-your-api-key",
baseURL: "https://tokenhub.store/api/v1",
});
const resp = await client.chat.completions.create({
model: "deepseek/deepseek-v4-flash",
temperature: 0.3,
messages: [
{ role: "system", content: "You are a concise assistant." },
{ role: "user", content: "Explain CAP theorem in 3 bullets." },
],
});
const msg: any = resp.choices[0].message;
console.log("Thinking:", msg.reasoning_content);
console.log("Answer: ", msg.content);
console.log("Usage: ", resp.usage);DeepSeek V4 abre uma fase dedicada de raciocínio antes de escrever a resposta final. Veja o que você precisa saber:
Cadastre-se no TokenHub e comece a chamar o DeepSeek V4 via nossa API OpenAI-compatible