Zum Hauptinhalt springen
Fortgeschrittenes Setup - Diese Integration erfordert das Ausführen eines lokalen Proxys. Für einfachere Setups ziehen Sie Aider oder OpenCode in Betracht.
Claude Code ist Anthropics offizielle CLI für KI-gestütztes Coding. Obwohl es für Claude-Modelle konzipiert ist, können Sie Anfragen mit ccproxy, einem LiteLLM-basierten Proxy, an Infercom routen.

Funktionsweise

ccproxy fängt Claude Codes API-Aufrufe ab und routet sie zu Ihrem konfigurierten Provider (Infercom). Dies ermöglicht die Nutzung von Claude Codes Interface während die Inferenz auf EU-souveräner Infrastruktur läuft.
Claude Code CLI -> ccproxy (localhost) -> Infercom API

Voraussetzungen

Installation

Schritt 1: ccproxy installieren

# Mit npm
npm install -g ccproxy

# Oder mit Bun
bun install -g ccproxy

Schritt 2: Konfiguration erstellen

~/.ccproxy/config.yaml erstellen:
model_list:
  # Sonnet-Anfragen zu Infercom MiniMax routen
  - model_name: infercom
    litellm_params:
      model: openai/MiniMax-M2.5
      api_base: https://api.infercom.ai/v1
      api_key: "ihr-infercom-api-key"

  # Claude-Modelle für komplexe Aufgaben behalten (optional)
  - model_name: claude-sonnet-4-6
    litellm_params:
      model: anthropic/claude-sonnet-4-6
      api_base: https://api.anthropic.com
      api_key: "ihr-anthropic-api-key"

litellm_settings:
  drop_params: true  # Erforderlich - verwirft nicht unterstützte Parameter wie reasoning_effort
~/.ccproxy/ccproxy.yaml für Routing-Regeln erstellen:
ccproxy:
  rules:
    # Sonnet zu Infercom routen
    - name: infercom
      rule: ccproxy.rules.MatchModelRule
      params:
        - model_name: claude-sonnet-4-6

litellm:
  host: 127.0.0.1
  port: 4000
drop_params: true ist erforderlich weil MiniMax nicht alle Claude-Parameter wie reasoning_effort unterstützt.
Mehrere Claude-Modellnamen mappen für Kompatibilität mit verschiedenen Claude Code Versionen.

Schritt 3: ccproxy starten

cd ~/.ccproxy && ccproxy start
Sie sollten sehen:
ccproxy running on http://127.0.0.1:4000
Dieses Terminal offen lassen während Claude Code verwendet wird.

Verwendung

Claude Code konfigurieren

In einem neuen Terminal den API-Endpunkt setzen:
export ANTHROPIC_BASE_URL="http://127.0.0.1:4000"

Claude Code ausführen

claude

Modelle wechseln

Den /model-Befehl in Claude Code verwenden um ein Modell auszuwählen. Der Modellname zeigt “Claude” aber Anfragen werden zu MiniMax-M2.5 geroutet.

ccproxy als Service ausführen

macOS (launchd)

~/Library/LaunchAgents/com.ccproxy.plist erstellen:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
    <key>Label</key>
    <string>com.ccproxy</string>
    <key>ProgramArguments</key>
    <array>
        <string>/usr/local/bin/ccproxy</string>
    </array>
    <key>RunAtLoad</key>
    <true/>
    <key>KeepAlive</key>
    <true/>
</dict>
</plist>
Service laden:
launchctl load ~/Library/LaunchAgents/com.ccproxy.plist

Linux (systemd)

~/.config/systemd/user/ccproxy.service erstellen:
[Unit]
Description=ccproxy für Claude Code
After=network.target

[Service]
ExecStart=/usr/local/bin/ccproxy
Restart=always

[Install]
WantedBy=default.target
Aktivieren und starten:
systemctl --user enable ccproxy
systemctl --user start ccproxy

Einschränkungen

Bekannte Einschränkungen:
  • Modellname zeigt “Claude” im Interface auch wenn Infercom verwendet wird
  • Einige Claude-spezifische Funktionen könnten nicht funktionieren (Vision, Computer Use)
  • Erfordert laufenden Proxy
  • VS Code Extension ist weniger zuverlässig als CLI

Fehlerbehebung

Verbindung abgelehnt

Sicherstellen dass ccproxy läuft:
curl http://127.0.0.1:4000/health

Authentifizierungsfehler

Infercom API-Schlüssel in ccproxy.yaml verifizieren:
curl -s https://api.infercom.ai/v1/models \
  -H "Authorization: Bearer ihr-infercom-api-key"

Modell nicht gefunden

Prüfen dass ccproxy.yaml die korrekten Claude-Modellnamen mappt:
model_name: "claude-sonnet-4-6"  # Muss zu dem passen was Claude Code anfragt

Langsame Antworten

ccproxy fügt minimale Latenz hinzu. Bei langsamen Antworten prüfen:
  1. Netzwerkverbindung zu api.infercom.ai
  2. Modell-Ladezeiten (erste Anfrage kann langsamer sein)

Sicherheitsüberlegungen

  • ccproxy läuft lokal und exponiert Ihren API-Schlüssel nicht an externe Services
  • Gesamter Traffic zu Infercom ist verschlüsselt (HTTPS)
  • Ihr Code bleibt innerhalb der EU-Infrastruktur

Alternative: Direkte API

Für einfachere Setups ohne Proxy-Overhead erwägen Sie:

Nächste Schritte