Fortgeschrittenes Setup - Diese Integration erfordert das Ausführen eines lokalen Proxys. Für einfachere Setups ziehen Sie Aider oder OpenCode in Betracht.
Claude Code ist Anthropics offizielle CLI für KI-gestütztes Coding. Obwohl es für Claude-Modelle konzipiert ist, können Sie Anfragen mit ccproxy, einem LiteLLM-basierten Proxy, an Infercom routen.
Funktionsweise
ccproxy fängt Claude Codes API-Aufrufe ab und routet sie zu Ihrem konfigurierten Provider (Infercom). Dies ermöglicht die Nutzung von Claude Codes Interface während die Inferenz auf EU-souveräner Infrastruktur läuft.
Claude Code CLI -> ccproxy (localhost) -> Infercom API
Voraussetzungen
Installation
Schritt 1: ccproxy installieren
# Mit npm
npm install -g ccproxy
# Oder mit Bun
bun install -g ccproxy
Schritt 2: Konfiguration erstellen
~/.ccproxy/config.yaml erstellen:
model_list:
# Sonnet-Anfragen zu Infercom MiniMax routen
- model_name: infercom
litellm_params:
model: openai/MiniMax-M2.5
api_base: https://api.infercom.ai/v1
api_key: "ihr-infercom-api-key"
# Claude-Modelle für komplexe Aufgaben behalten (optional)
- model_name: claude-sonnet-4-6
litellm_params:
model: anthropic/claude-sonnet-4-6
api_base: https://api.anthropic.com
api_key: "ihr-anthropic-api-key"
litellm_settings:
drop_params: true # Erforderlich - verwirft nicht unterstützte Parameter wie reasoning_effort
~/.ccproxy/ccproxy.yaml für Routing-Regeln erstellen:
ccproxy:
rules:
# Sonnet zu Infercom routen
- name: infercom
rule: ccproxy.rules.MatchModelRule
params:
- model_name: claude-sonnet-4-6
litellm:
host: 127.0.0.1
port: 4000
drop_params: true ist erforderlich weil MiniMax nicht alle Claude-Parameter wie reasoning_effort unterstützt.
Mehrere Claude-Modellnamen mappen für Kompatibilität mit verschiedenen Claude Code Versionen.
Schritt 3: ccproxy starten
cd ~/.ccproxy && ccproxy start
Sie sollten sehen:
ccproxy running on http://127.0.0.1:4000
Dieses Terminal offen lassen während Claude Code verwendet wird.
Verwendung
Claude Code konfigurieren
In einem neuen Terminal den API-Endpunkt setzen:
export ANTHROPIC_BASE_URL="http://127.0.0.1:4000"
Claude Code ausführen
Modelle wechseln
Den /model-Befehl in Claude Code verwenden um ein Modell auszuwählen. Der Modellname zeigt “Claude” aber Anfragen werden zu MiniMax-M2.5 geroutet.
ccproxy als Service ausführen
macOS (launchd)
~/Library/LaunchAgents/com.ccproxy.plist erstellen:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.ccproxy</string>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/ccproxy</string>
</array>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
</dict>
</plist>
Service laden:
launchctl load ~/Library/LaunchAgents/com.ccproxy.plist
Linux (systemd)
~/.config/systemd/user/ccproxy.service erstellen:
[Unit]
Description=ccproxy für Claude Code
After=network.target
[Service]
ExecStart=/usr/local/bin/ccproxy
Restart=always
[Install]
WantedBy=default.target
Aktivieren und starten:
systemctl --user enable ccproxy
systemctl --user start ccproxy
Einschränkungen
Bekannte Einschränkungen:
- Modellname zeigt “Claude” im Interface auch wenn Infercom verwendet wird
- Einige Claude-spezifische Funktionen könnten nicht funktionieren (Vision, Computer Use)
- Erfordert laufenden Proxy
- VS Code Extension ist weniger zuverlässig als CLI
Fehlerbehebung
Verbindung abgelehnt
Sicherstellen dass ccproxy läuft:
curl http://127.0.0.1:4000/health
Authentifizierungsfehler
Infercom API-Schlüssel in ccproxy.yaml verifizieren:
curl -s https://api.infercom.ai/v1/models \
-H "Authorization: Bearer ihr-infercom-api-key"
Modell nicht gefunden
Prüfen dass ccproxy.yaml die korrekten Claude-Modellnamen mappt:
model_name: "claude-sonnet-4-6" # Muss zu dem passen was Claude Code anfragt
Langsame Antworten
ccproxy fügt minimale Latenz hinzu. Bei langsamen Antworten prüfen:
- Netzwerkverbindung zu
api.infercom.ai
- Modell-Ladezeiten (erste Anfrage kann langsamer sein)
Sicherheitsüberlegungen
- ccproxy läuft lokal und exponiert Ihren API-Schlüssel nicht an externe Services
- Gesamter Traffic zu Infercom ist verschlüsselt (HTTPS)
- Ihr Code bleibt innerhalb der EU-Infrastruktur
Alternative: Direkte API
Für einfachere Setups ohne Proxy-Overhead erwägen Sie:
Nächste Schritte