Setup-Zeit: ~3 Minuten
Voraussetzungen
- Windsurf Editor installiert
- Infercom API-Schlüssel
Konfiguration
Schritt 1: Einstellungen öffnen
- Windsurf öffnen
- Zu Settings → Windsurf Settings gehen
- Zu Cascade → Model Configuration navigieren
Schritt 2: Custom Provider konfigurieren
- Nach BYOK (Bring Your Own Key) oder Custom Model Provider Optionen suchen
- OpenAI Compatible als Provider-Typ auswählen
- Konfiguration eingeben:
- Base URL:
https://api.infercom.ai/v1 - API Key: Ihr Infercom API-Schlüssel
- Model:
MiniMax-M2.5
- Base URL:
Schritt 3: Modell auswählen
- In der Modellauswahl Ihr konfiguriertes Infercom-Modell wählen
- Mit Cascade coden beginnen
Modell
MiniMax-M2.5 verwenden - optimiert für Agentic Coding mit 160K Kontext (163.840 Tokens) und 75,8% SWE-bench.
Verwendung
Mit konfiguriertem Windsurf:- Cascade Chat: Das KI-Chat-Panel für Fragen und Aufgaben verwenden
- Inline-Bearbeitungen: Code auswählen und nach Änderungen fragen
- Multi-Datei-Änderungen: Cascade kann über Ihr gesamtes Projekt arbeiten
Fehlerbehebung
BYOK nicht verfügbar
Custom-Modell-Konfiguration könnte erfordern:- Windsurf Pro Abonnement
- Neueste Version von Windsurf
Verbindungsfehler
Endpunkt-Format verifizieren:Modell nicht erkannt
Exakten Modellnamen verwenden:MiniMax-M2.5
Einschränkungen
Nächste Schritte
- Cursor - Alternative KI-native IDE
- Continue - Open-Source VS Code Extension
- Tool auswählen - Alle Optionen vergleichen