D
Panduan API DeepSeek

DeepSeek V4 di TokenHub — Model Thinking OpenAI-Compatible

Panggil seri unggulan V4 DeepSeek 2026 (V4-Pro dan V4-Flash) melalui endpoint terpadu TokenHub /chat/completions. Sepenuhnya OpenAI-compatible — SDK openai resmi berfungsi langsung tanpa konfigurasi tambahan. Streaming, penggunaan tool, dan mode thinking dengan reasoning_content semuanya didukung. Jendela konteks 1M, output maksimum 384K, penagihan per Token berdasarkan harga katalog DeepSeek.

OpenAI-CompatibleStreamingThinking ModeTool Use1M Context384K Output

1Dapatkan API Key Anda

  1. Kunjungi tokenhub.store dan daftar akun (login GitHub / Google didukung)
  2. Buka Dashboard → API Keys, klik "Create New Key"
  3. Buka Dashboard → Billing untuk menambahkan Credits (1 Credit = $1 USD)
  4. Salin API Key (format: th-xxxxxxxxxxxx...)
⚠️ API Key hanya ditampilkan satu kali saat pembuatan. Simpan dengan aman; jika hilang, buat yang baru.

2Ikhtisar API

Base URL

https://tokenhub.store/api/v1

Autentikasi

Kirim API Key di header Authorization:

Header
Authorization: Bearer th-your-api-key

Endpoint (OpenAI-compatible)

POST
/chat/completions

Chat completion. Skema sama seperti OpenAI /v1/chat/completions, dengan streaming, tools, mode JSON, dan field thinking khusus DeepSeek.

Langsung pakai SDK openai resmi — cukup arahkan base_url ke TokenHub dan gunakan API key TokenHub Anda. Tidak perlu perubahan kode lainnya.

3Model & Harga

Harga per 1 juta Token (USD), berdasarkan harga daftar katalog DeepSeek (tanpa diskon promosi). Baik ID kanonik maupun alias deepseek/* diterima. Penagihan menggunakan completion_tokens yang dikembalikan oleh upstream (yang sudah mencakup reasoning_tokens).

TingkatID ModelInputOutputCatatan
V4-Prodeepseek-v4-pro$1.80$3.60Model unggulan tingkat teratas 2026. Terbaik untuk kualitas reasoning & coding.
V4-Flashdeepseek-v4-flash$0.15$0.30Model unggulan yang sangat hemat biaya, sekitar 12× lebih murah daripada Pro; pilihan default yang sangat baik untuk produksi.

4Parameter Permintaan

ParameterTipeWajibDefaultDeskripsi
modelstringWajibID model DeepSeek V4. Contoh: "deepseek/deepseek-v4-flash".
messagesarrayWajibRiwayat chat. Setiap item adalah { role, content }. role ∈ system | user | assistant | tool.
max_tokensintegerOpsionalupstream defaultToken output maksimum. Jika dihilangkan, DeepSeek menggunakan default upstream-nya (hingga 384K). Dalam mode thinking, penghitung MENCAKUP reasoning tokens — jangan disetel terlalu kecil.
temperaturenumberOpsional1.0Sampling temperature, 0.0–2.0. Semakin rendah = semakin deterministik. DeepSeek merekomendasikan 0.0 untuk kode, 1.3 untuk penulisan kreatif.
top_pnumberOpsional1.0Nucleus sampling. Gunakan temperature ATAU top_p, jangan keduanya.
streambooleanOpsionalfalseJika true, mengembalikan delta Server-Sent Events (SSE).
thinkingobjectOpsional{type:'enabled'}Khusus DeepSeek. Lewatkan { type: 'disabled' } melalui extra_body untuk melewati fase penalaran agar respons lebih cepat/lebih murah. Default: enabled.
reasoning_effortstringOpsionalmediumKedalaman thinking: low | medium | high. Semakin tinggi = lebih banyak reasoning tokens, kualitas lebih baik, biaya lebih tinggi.
toolsarrayOpsionalDaftar definisi tool/function untuk penggunaan tool (function calling).
tool_choicestring|objectOpsionalautoKontrol pemilihan tool: auto | none | required | { type:'function', function:{ name } }.
response_formatobjectOpsionalMode JSON: { "type": "json_object" } memaksa model untuk mengembalikan JSON yang valid.

5Contoh curl

bash
curl https://tokenhub.store/api/v1/chat/completions \
  -H "Authorization: Bearer th-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek/deepseek-v4-flash",
    "messages": [
      {"role": "system", "content": "You are a concise assistant."},
      {"role": "user", "content": "Explain CAP theorem in 3 bullets."}
    ],
    "temperature": 0.3
  }'

6Contoh Python

python
from openai import OpenAI

client = OpenAI(
    api_key="th-your-api-key",
    base_url="https://tokenhub.store/api/v1",
)

resp = client.chat.completions.create(
    model="deepseek/deepseek-v4-flash",
    temperature=0.3,
    messages=[
        {"role": "system", "content": "You are a concise assistant."},
        {"role": "user", "content": "Explain CAP theorem in 3 bullets."},
    ],
)

msg = resp.choices[0].message
# DeepSeek V4 returns the chain-of-thought in a separate field
print("Thinking:", getattr(msg, "reasoning_content", None))
print("Answer:  ", msg.content)
print("Usage:   ", resp.usage)

7Contoh JavaScript / Node.js

typescript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "th-your-api-key",
  baseURL: "https://tokenhub.store/api/v1",
});

const resp = await client.chat.completions.create({
  model: "deepseek/deepseek-v4-flash",
  temperature: 0.3,
  messages: [
    { role: "system", content: "You are a concise assistant." },
    { role: "user", content: "Explain CAP theorem in 3 bullets." },
  ],
});

const msg: any = resp.choices[0].message;
console.log("Thinking:", msg.reasoning_content);
console.log("Answer:  ", msg.content);
console.log("Usage:   ", resp.usage);

8Pendalaman Thinking Mode

DeepSeek V4 membuka fase penalaran khusus sebelum menulis jawaban final. Berikut yang perlu Anda ketahui:

  • reasoning_content dikembalikan sebagai field TERPISAH pada pesan assistant (bukan di dalam content). Jangan masukkan kembali pada turn lanjutan.
  • completion_tokens di usage sudah MENCAPUP reasoning_tokens — itu juga yang kami tagihkan. Periksa completion_tokens_details.reasoning_tokens untuk melihat berapa banyak yang digunakan untuk thinking.
  • Menetapkan max_tokens terlalu rendah dalam thinking mode akan menghasilkan content kosong (semua token habis untuk reasoning). Biarkan tidak diset, atau beri setidaknya 2000+.
  • Nonaktifkan via extra_body: { thinking: { type: 'disabled' } } untuk skenario yang sensitif terhadap latensi (chat, klasifikasi, ekstraksi sederhana).
  • reasoning_effort: 'low' | 'medium' | 'high' mengontrol seberapa banyak model berpikir. 'high' memberi hasil terbaik untuk matematika/coding; 'low' lebih cepat.
  • Prompt caching: jika Anda menggunakan ulang system prompt yang sama, DeepSeek mengembalikan prompt_cache_hit_tokens secara terpisah. TokenHub saat ini menagih secara seragam pada tarif miss rate (sedikit over-charge sebagai imbalan untuk harga yang dapat diprediksi).

9FAQ

Siap Memulai?

Daftar ke TokenHub dan mulai memanggil DeepSeek V4 melalui API OpenAI-compatible kami