OpenClaw
OpenClaw ist ein Open-Source-AI-Assistent, der lokal läuft und über WhatsApp, Telegram, Slack und andere Messaging-Apps mit Ihnen interagiert. Er kann reale Aufgaben ausführen — E-Mails verwalten, Kalender organisieren, Websites durchsuchen und mehr. Alle Daten bleiben auf Ihrem Gerät.
Warum mit OfoxAI?
- 100+ Modelle über eine API — Ein API Key für Claude, GPT, Gemini, Qwen, Doubao und alle gängigen Modelle
- Flexible Agent-Strategien — Verschiedenen Agents verschiedene Modelle zuweisen: Sonnet als Arbeitstier, Opus für Reasoning, Haiku für leichte Aufgaben
- 99,9 % SLA — Mehrknotenredundanz, automatisches Failover
- Kontrollierbare Kosten — Einheitliches Abrechnungs-Dashboard, Echtzeit-Token-Monitoring
OpenClaw als Agentic AI-Assistent verbraucht pro Aufgabe relativ viele Tokens (typischerweise 10K–100K+). Wählen Sie das Modell je nach Aufgabenkomplexität, um unnötige Kosten zu vermeiden. Dieser Artikel bietet drei Konfigurationsvarianten.
Installation
curl -sSL https://openclaw.ai/install.sh | bash& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1)))Schnellstart
1. API Key erstellen
Erstellen Sie einen API Key in der OfoxAI-Konsole .
2. Konfigurationsassistent starten
OpenClaw bietet einen interaktiven Assistenten:
openclaw onboardWählen Sie im Assistenten Custom Provider und geben Sie folgende Daten ein:
| Konfiguration | Wert |
|---|---|
| Provider Type | anthropic-messages |
| Base URL | https://api.ofox.ai/anthropic |
| API Key | Ihr OfoxAI API Key |
| Model | anthropic/claude-sonnet-4.5 |
3. Starten und testen
openclaw startSenden Sie eine Testnachricht an OpenClaw. Bei normaler Antwort ist die Konfiguration erfolgreich.
Der Assistent generiert automatisch eine openclaw.json-Konfigurationsdatei. Für feinere Kontrolle siehe die vollständige Konfiguration unten.
Vollständige Konfiguration
OpenClaw verwaltet alle Einstellungen über ~/.openclaw/openclaw.json (unterstützt JSON5-Format mit Kommentaren).
Provider-Konfiguration
Provider werden unter models.providers definiert. Jeder Provider benötigt API-Protokolltyp, Adresse und Schlüssel:
{
"models": {
"providers": {
"ofoxai-anthropic": {
"baseUrl": "https://api.ofox.ai/anthropic",
"apiKey": "${OFOXAI_API_KEY}",
"api": "anthropic-messages",
"models": []
},
"ofoxai-openai": {
"baseUrl": "https://api.ofox.ai/v1",
"apiKey": "${OFOXAI_API_KEY}",
"api": "openai-responses",
"models": []
},
"ofoxai-gemini": {
"baseUrl": "https://api.ofox.ai/gemini",
"apiKey": "${OFOXAI_API_KEY}",
"api": "google-generative-ai",
"models": []
}
}
}
}apiKey unterstützt die ${ENV_VAR}-Syntax, um Umgebungsvariablen zu referenzieren und den Schlüssel nicht im Klartext in die Konfiguration zu schreiben. Drei Protokolle für unterschiedliche Modellserien: Claude verwendet ofoxai-anthropic (anthropic-messages), OpenAI verwendet ofoxai-openai (openai-responses), Gemini verwendet ofoxai-gemini (google-generative-ai). Andere Modelle können über ofoxai-openai angebunden werden.
Modell-Konfiguration
Modelle werden im models-Array des jeweiligen Providers definiert. Drei Varianten stehen zur Auswahl:
Maximale Leistung
Voll-Claude-Aufstellung — Maximale Leistung für anspruchsvolle Szenarien.
{
"models": {
"providers": {
"ofoxai-anthropic": {
"baseUrl": "https://api.ofox.ai/anthropic",
"apiKey": "${OFOXAI_API_KEY}",
"api": "anthropic-messages",
"models": [
{
"id": "anthropic/claude-sonnet-4.5",
"name": "Claude Sonnet 4.5",
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 64000
},
{
"id": "anthropic/claude-opus-4.6",
"name": "Claude Opus 4.6",
"reasoning": true,
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 128000
},
{
"id": "anthropic/claude-haiku-4.5",
"name": "Claude Haiku 4.5",
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 64000
}
]
}
}
}
}| Modell | Rolle | Einsatzgebiet |
|---|---|---|
anthropic/claude-sonnet-4.5 | Hauptmodell | Tägliche Dialoge, Aufgabenausführung, Codegenerierung |
anthropic/claude-opus-4.6 | Tiefes Reasoning | Komplexe Analyse, lange Schlussfolgerungsketten, Forschung |
anthropic/claude-haiku-4.5 | Schnelle Antwort | Einfache Abfragen, Schnellantworten, leichte Aufgaben |
Agents-Konfiguration
OpenClaw setzt globale Standardeinstellungen über agents.defaults und definiert verschiedene Agents über das agents.list-Array. Jeder Agent kann die Standardkonfiguration überschreiben:
{
"agents": {
"defaults": {
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-sonnet-4.5",
"fallbacks": ["ofoxai-anthropic/anthropic/claude-haiku-4.5"]
},
"models": {
"ofoxai-anthropic/anthropic/claude-opus-4.6": { "alias": "opus" },
"ofoxai-anthropic/anthropic/claude-sonnet-4.5": { "alias": "sonnet" },
"ofoxai-anthropic/anthropic/claude-haiku-4.5": { "alias": "haiku" }
},
"thinkingDefault": "low",
"timeoutSeconds": 600,
"maxConcurrent": 3
},
"list": [
{
"id": "main",
"default": true
},
{
"id": "research",
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-opus-4.6"
}
},
{
"id": "quick",
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-haiku-4.5"
}
}
]
}
}| Agent | Modell | Zweck |
|---|---|---|
| main | claude-sonnet-4.5 (erbt von defaults) | Standard-Agent, alle täglichen Aufgaben |
| research | claude-opus-4.6 | Tiefenrecherche, komplexes Reasoning, Langtext-Analyse |
| quick | claude-haiku-4.5 | Einfache Fragen, Schnellantworten, kosteneffizient |
Modelle werden im Format providername/model-id referenziert (z. B. ofoxai-anthropic/anthropic/claude-sonnet-4.5). Im defaults-Abschnitt definieren die models-Einträge Aliase, die im Dialog per /model opus schnell gewechselt werden können. Agents in list erben alle defaults-Einstellungen und überschreiben nur abweichende Felder.
Vollständiges Konfigurationsbeispiel
Ein vollständiges openclaw.json mit Provider-, Modell- und Agents-Konfiguration (maximale Leistung):
{
"models": {
"providers": {
"ofoxai-anthropic": {
"baseUrl": "https://api.ofox.ai/anthropic",
"apiKey": "${OFOXAI_API_KEY}",
"api": "anthropic-messages",
"models": [
{
"id": "anthropic/claude-sonnet-4.5",
"name": "Claude Sonnet 4.5",
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 64000
},
{
"id": "anthropic/claude-opus-4.6",
"name": "Claude Opus 4.6",
"reasoning": true,
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 128000
},
{
"id": "anthropic/claude-haiku-4.5",
"name": "Claude Haiku 4.5",
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 64000
}
]
},
"ofoxai-gemini": {
"baseUrl": "https://api.ofox.ai/gemini",
"apiKey": "${OFOXAI_API_KEY}",
"api": "google-generative-ai",
"models": [
{
"id": "models/google/gemini-2.5-flash",
"name": "Gemini 2.5 Flash",
"reasoning": true,
"input": ["text", "image"],
"contextWindow": 1000000,
"maxTokens": 64000
},
{
"id": "models/google/gemini-2.5-pro",
"name": "Gemini 2.5 Pro",
"reasoning": true,
"input": ["text", "image"],
"contextWindow": 1000000,
"maxTokens": 64000
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-sonnet-4.5",
"fallbacks": ["ofoxai-anthropic/anthropic/claude-haiku-4.5"]
},
"models": {
"ofoxai-anthropic/anthropic/claude-opus-4.6": { "alias": "opus" },
"ofoxai-anthropic/anthropic/claude-sonnet-4.5": { "alias": "sonnet" },
"ofoxai-anthropic/anthropic/claude-haiku-4.5": { "alias": "haiku" }
},
"thinkingDefault": "low",
"timeoutSeconds": 600,
"maxConcurrent": 3
},
"list": [
{
"id": "main",
"default": true
},
{
"id": "research",
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-opus-4.6"
}
},
{
"id": "quick",
"model": {
"primary": "ofoxai-anthropic/anthropic/claude-haiku-4.5"
}
}
]
}
}Anwendungsszenarien
Nach erfolgreicher Konfiguration senden Sie über Ihre Messaging-App Befehle an OpenClaw:
- E-Mail-Verwaltung — „Sortiere meine ungelesenen E-Mails nach Priorität”
- Terminplanung — „Plane morgen um 15 Uhr ein Team-Meeting”
- Informationsrecherche — „Suche aktuelle Artikel über AI Agents und fasse die Kernpunkte zusammen”
- Code-Unterstützung — „Überprüfe diesen Python-Code auf Sicherheitsprobleme”
- Workflow-Automatisierung — „Sende jeden Morgen um 9 Uhr den Tagesbericht an den Slack-Channel #general”
Fehlerbehebung
Verbindung zu OfoxAI nicht möglich
Prüfen Sie die korrekte baseUrl:
- Anthropic-Protokoll:
https://api.ofox.ai/anthropic - OpenAI-Response-Protokoll:
https://api.ofox.ai/v1 - Gemini-Protokoll:
https://api.ofox.ai/gemini
Modell nicht gefunden
Prüfen Sie das korrekte Modell-ID-Format. Bei der Modelldefinition unter models.providers verwenden Sie die vollständige OfoxAI-ID (z. B. anthropic/claude-sonnet-4.5). Bei der Referenzierung in agents muss das Provider-Präfix hinzugefügt werden: ofoxai-anthropic/anthropic/claude-sonnet-4.5.
Hoher Token-Verbrauch
OpenClaw verbraucht pro Aufgabe viele Tokens. Empfehlungen:
- Für Alltagsaufgaben
claude-haiku-4.5oder kosteneffiziente Modelle verwenden - Nur bei komplexen Aufgaben zum
research-Agent wechseln (mitclaude-opus-4.6) - Den Verbrauch in der OfoxAI-Konsole überwachen
Schneller Modellwechsel
Im Dialog per Alias wechseln: /model opus, /model sonnet, /model haiku (erfordert konfigurierte Aliase unter agents.defaults.models).