API-Dokumentation

Einheitlicher Zugriff auf erstklassige AI-Modelle. OpenAI-compatible API — ein Schlüssel für alle Modelle.

API-Basis-URL

https://tokenhub.store/api/v1

Alle API-Anfragen verwenden diese Basis-URL. Vollständig kompatibel mit OpenAI SDKs.

Schnellstart

In wenigen Minuten starten

  1. Ein Konto erstellen und sich im Dashboard anmelden
  2. Gehen Sie zu API Keys und erstellen Sie einen neuen API key
  3. Besuchen Sie Abrechnung um Credits zu Ihrem Konto hinzuzufügen
  4. Beginnen Sie mit API-Aufrufen mit jedem unterstützten model

Unterstützte Modelle

Klicken Sie auf einen Anbieter, um verfügbare Modelle und Code-Beispiele anzuzeigen.

OpenAI

6 Modelle

Führendes AI-Forschungsunternehmen, Entwickler der GPT-Serie. Bekannt für modernste Sprachmodelle mit außergewöhnlichen Fähigkeiten in Reasoning und Code.

Anthropic

6 Modelle

AI-Sicherheitsunternehmen, bekannt für Claude-Modelle. Hervorragend in nuancierten Gesprächen, Code und komplexem Reasoning mit starken Sicherheitsfunktionen.

Google

5 Modelle

Die Gemini-Familie von Google bietet modernste multimodale Fähigkeiten mit branchenführenden Kontextfenstern von bis zu 2M Tokens.

xAI

3 Modelle

AI-Unternehmen von Elon Musk. Grok-Modelle sind bekannt für Echtzeitwissen, witzige Antworten und hervorragende Unterstützung beim Programmieren.

Alibaba (Qwen)

3 Modelle

Alibabas Qwen-Serie bietet leistungsstarke mehrsprachige Modelle mit starker Performance bei englischen und chinesischen Aufgaben.

Zhipu AI (GLM)

3 Modelle

GLM-Serie von Zhipu AI. Fortschrittliche zweisprachige Chinesisch-Englisch-Modelle mit bis zu 200K Kontextfenster.

MiniMax

2 Modelle

M2-Serie von MiniMax. Ultralanger 205K Kontext mit starken mehrsprachigen Fähigkeiten.

Xiaomi (MiMo)

2 Modelle

MiMo V2-Modelle von Xiaomi. Große Kontextfenster mit bis zu 1M Tokens.

Alibaba (Qwen3)

3 Modelle

Qwen3-Serie von Alibaba. Massive MoE-Modelle mit Spezialisierungen für Vision-Language und Coding.

Moonshot AI (Kimi)

3 Modelle

Kimi K2-Serie von Moonshot AI. Starkes Reasoning mit erweiterten Kontextfenstern.

DeepSeek

6 Modelle

Die neuesten Modelle von DeepSeek. Hoch kosteneffizient mit starken Reasoning- und Coding-Fähigkeiten.

ByteDance (Seedance)

2 Modelle

Seedance-Video-Generierungsmodelle von ByteDance. Text-to-Video in Kinoqualität, Image-to-Video und multimodale Videobearbeitung mit Audio-Unterstützung.

ByteDance (Seedream)

3 Modelle

Seedream-Bildgenerierungsmodelle von ByteDance. Hochwertiges Text-to-Image mit fotorealistischen und künstlerischen Stilen.

Kwaivgi (Kling)

2 Modelle

Kling-Video-Generierungsmodelle von Kwaivgi. Hochwertiges Text-to-Video und Image-to-Video mit std/pro-Modi. Dauer 3–15s. std: $0.168/s, pro: $0.224/s (ohne Audio).

API-Endpunkte

POST /chat/completions

Eine Chat-Antwort mit Streaming-Unterstützung erstellen

Header

headers
Authorization: Bearer th-your-api-key
Content-Type: application/json

Anfrage-Body

json
{
  "model": "openai/gpt-4.1",
  "messages": [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Hello!"}
  ],
  "temperature": 0.7,
  "max_tokens": 1000,
  "stream": false
}

POST /videos/generations

Ein Video aus Text- oder Bild-Prompt generieren (Seedance- & Wan 2.2-Modelle)

Header

headers
Authorization: Bearer th-your-api-key
Content-Type: application/json

Anfrage-Body

json
{
  "model": "bytedance/doubao-seedance-2.0",
  "prompt": "A golden retriever running on a sunny beach",
  "duration": 5,
  "resolution": "720p",
  "aspect_ratio": "16:9"
}

Anfrage-Body (content-Array — first_frame & last_frame)

json
{
  "model": "bytedance/doubao-seedance-2.0",
  "prompt": "Hand picks a fresh apple from the tree, the scene smoothly transitions to a hand holding an apple smoothie drink, cinematic lighting in an orchard",
  "content": [
    {
      "type": "image_url",
      "image_url": { "url": "https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic1.jpg" },
      "role": "first_frame"
    },
    {
      "type": "image_url",
      "image_url": { "url": "https://ark-project.tos-cn-beijing.volces.com/doc_image/r2v_tea_pic2.jpg" },
      "role": "last_frame"
    }
  ],
  "duration": 5,
  "resolution": "720p"
}

Parameter

content (optional): Array von Medien-Assets. Jedes Element hat:

  • type: "image_url"
  • image_url.url: URL des Bildes
  • role: <firstFrame/> (max. 1), <lastFrame/> (max. 1), <refImage/>, <refVideo/>, <refAudio/>

GET /videos/generations/{id}

Den Status einer Video-Generierungsaufgabe abfragen

Header

headers
Authorization: Bearer th-your-api-key

Antwort

json
{
  "id": "tsk-xxx",
  "object": "video.generation.task",
  "model": "bytedance/doubao-seedance-2.0",
  "status": "succeeded",  // "queued" | "running" | "succeeded" | "failed"
  "data": [
    {
      "video_url": "https://..."
    }
  ]
}

POST /images/generations

Bilder aus Texteingaben generieren (Seedream-Modelle)

Header

headers
Authorization: Bearer th-your-api-key
Content-Type: application/json

Anforderungstext

json
{
  "model": "bytedance/doubao-seedream-5.0",
  "prompt": "A serene mountain landscape at sunset",
  "n": 1,
  "size": "2048x2048"
}

GET /models

Alle verfügbaren model auflisten

Code-Beispiele

cURL

bash
curl https://tokenhub.store/api/v1/chat/completions \
  -H "Authorization: Bearer th-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4.1",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Python (OpenAI SDK)

python
from openai import OpenAI

client = OpenAI(
    api_key="th-your-api-key",
    base_url="https://tokenhub.store/api/v1"
)

# Use any supported model
response = client.chat.completions.create(
    model="openai/gpt-5.4",  # Or any other model
    messages=[{"role": "user", "content": "Hello!"}]
)

print(response.choices[0].message.content)

JavaScript / TypeScript

typescript
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'th-your-api-key',
  baseURL: 'https://tokenhub.store/api/v1',
});

// Use any supported model
const response = await client.chat.completions.create({
  model: 'anthropic/claude-sonnet-4-6',
  messages: [{ role: 'user', content: 'Hello!' }],
});

console.log(response.choices[0].message.content);

Streaming-Beispiel (Python)

python
from openai import OpenAI

client = OpenAI(
    api_key="th-your-api-key",
    base_url="https://tokenhub.store/api/v1"
)

stream = client.chat.completions.create(
    model="google/gemini-2.5-pro",
    messages=[{"role": "user", "content": "Write a short story."}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Brauchen Sie Hilfe?

Kontaktieren Sie uns: support@tokenhub.store