Вызывайте флагманскую серию DeepSeek 2026 V4 (V4-Pro и V4-Flash) через единый endpoint TokenHub /chat/completions. Полная совместимость с OpenAI — официальный openai SDK работает сразу без изменений. Поддерживаются streaming, использование tools и режим мышления с reasoning_content. Окно контекста 1M, максимальный вывод 384K, тарификация по токенам по ценам каталога DeepSeek.
th-xxxxxxxxxxxx...)https://tokenhub.store/api/v1Передайте API Key в заголовке Authorization:
Authorization: Bearer th-your-api-keyPOST/chat/completionsChat completion. Та же схема, что и у OpenAI /v1/chat/completions, с streaming, tools, JSON mode и специфичными для DeepSeek полями thinking.
Цена указана за 1 миллион Tokens (USD) и основана на каталожной цене DeepSeek (без промо-скидок). Принимаются как канонический ID, так и alias deepseek/*. Для биллинга используется completion_tokens, возвращаемый upstream (он уже включает reasoning_tokens).
| Тариф | ID model | Вход | Выход | Примечания |
|---|---|---|---|---|
| V4-Pro | deepseek-v4-pro | $1.80 | $3.60 | Флагманский топовый уровень 2026 года. Лучшее качество reasoning и кодинга. |
| V4-Flash | deepseek-v4-flash | $0.15 | $0.30 | Ультраэкономичный флагман, примерно в 12 раз дешевле Pro; отличный выбор по умолчанию для production. |
| Параметр | Тип | Обязательно | По умолчанию | Описание |
|---|---|---|---|---|
| model | string | Обязательно | — | ID model DeepSeek V4. Пример: "deepseek/deepseek-v4-flash". |
| messages | array | Обязательно | — | История чата. Каждый элемент имеет вид { role, content }. role ∈ system | user | assistant | tool. |
| max_tokens | integer | Необязательно | upstream default | Максимальное количество output Tokens. Если не указано, DeepSeek использует значение upstream по умолчанию (до 384K). В режиме thinking счётчик ВКЛЮЧАЕТ reasoning tokens — не задавайте слишком маленькое значение. |
| temperature | number | Необязательно | 1.0 | Sampling temperature, 0.0–2.0. Ниже = более детерминированно. DeepSeek рекомендует 0.0 для code и 1.3 для творческого письма. |
| top_p | number | Необязательно | 1.0 | Сэмплирование nucleus. Используйте temperature ИЛИ top_p, но не оба одновременно. |
| stream | boolean | Необязательно | false | Если true, возвращает дельты Server-Sent Events (SSE). |
| thinking | object | Необязательно | {type:'enabled'} | Только для DeepSeek. Передайте { type: 'disabled' } через extra_body, чтобы пропустить фазу reasoning и получать более быстрые/дешёвые ответы. По умолчанию: enabled. |
| reasoning_effort | string | Необязательно | medium | Глубина thinking: low | medium | high. Выше = больше reasoning tokens, лучше качество, выше стоимость. |
| tools | array | Необязательно | — | Список определений tool/function для использования tools (function calling). |
| tool_choice | string|object | Необязательно | auto | Управление выбором tools: auto | none | required | { type:'function', function:{ name } }. |
| response_format | object | Необязательно | — | JSON mode: { "type": "json_object" } заставляет model возвращать валидный JSON. |
curl https://tokenhub.store/api/v1/chat/completions \
-H "Authorization: Bearer th-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek/deepseek-v4-flash",
"messages": [
{"role": "system", "content": "You are a concise assistant."},
{"role": "user", "content": "Explain CAP theorem in 3 bullets."}
],
"temperature": 0.3
}'from openai import OpenAI
client = OpenAI(
api_key="th-your-api-key",
base_url="https://tokenhub.store/api/v1",
)
resp = client.chat.completions.create(
model="deepseek/deepseek-v4-flash",
temperature=0.3,
messages=[
{"role": "system", "content": "You are a concise assistant."},
{"role": "user", "content": "Explain CAP theorem in 3 bullets."},
],
)
msg = resp.choices[0].message
# DeepSeek V4 returns the chain-of-thought in a separate field
print("Thinking:", getattr(msg, "reasoning_content", None))
print("Answer: ", msg.content)
print("Usage: ", resp.usage)import OpenAI from "openai";
const client = new OpenAI({
apiKey: "th-your-api-key",
baseURL: "https://tokenhub.store/api/v1",
});
const resp = await client.chat.completions.create({
model: "deepseek/deepseek-v4-flash",
temperature: 0.3,
messages: [
{ role: "system", content: "You are a concise assistant." },
{ role: "user", content: "Explain CAP theorem in 3 bullets." },
],
});
const msg: any = resp.choices[0].message;
console.log("Thinking:", msg.reasoning_content);
console.log("Answer: ", msg.content);
console.log("Usage: ", resp.usage);DeepSeek V4 открывает отдельную фазу reasoning перед тем, как сформировать финальный ответ. Вот что нужно знать:
Зарегистрируйтесь в TokenHub и начните вызывать DeepSeek V4 через наш OpenAI-compatible API