Setup-Zeit: ~10 Minuten
Voraussetzungen
- Warp Terminal installiert (macOS oder Linux)
- Infercom API-Schlüssel
Konfiguration
Warps KI-Funktionen nutzen Sub-Agenten die individuell konfiguriert werden können.Schritt 1: Warp-Einstellungen öffnen
- Warp öffnen
Cmd+,(macOS) drücken oder zu Warp → Settings gehen- Zum AI-Bereich navigieren
Schritt 2: Custom Model konfigurieren
- Nach Custom Model oder BYOK-Optionen suchen
- OpenAI Compatible als Provider auswählen
- Konfiguration eingeben:
- API Base URL:
https://api.infercom.ai/v1 - API Key: Ihr Infercom API-Schlüssel
- Model:
MiniMax-M2.5
- API Base URL:
Schritt 3: Sub-Agenten konfigurieren
Warp hat möglicherweise mehrere KI-Funktionen die individuelle Konfiguration benötigen:- Warp AI Chat - Haupt-KI-Assistent
- Command Suggestions - Inline-Befehlsvervollständigung
- Natural Language to Command - Beschreibungen in Befehle umwandeln
Modell
MiniMax-M2.5 verwenden - optimiert für Agentic Coding mit 160K Kontext (163.840 Tokens) und 75,8% SWE-bench.
Verwendung
Nach der Konfiguration:AI Chat
Ctrl+Shift+Space drücken oder den KI-Button klicken um Warp AI Chat zu öffnen.
Natural Language Commands
# gefolgt von einer Beschreibung eingeben:
Befehlsvorschläge
Beim Tippen schlägt Warp Vervollständigungen basierend auf Kontext vor.Alternative: Umgebungsvariablen
Einige Warp AI-Funktionen respektieren möglicherweise OpenAI-Umgebungsvariablen:Fehlerbehebung
Custom Model nicht verfügbar
Warps BYOK-Funktionen könnten erfordern:- Warp Pro Abonnement
- Neueste Version von Warp
KI-Funktionen nutzen Custom Model nicht
Sicherstellen dass jeder Sub-Agent konfiguriert ist:- Alle KI-bezogenen Einstellungsbereiche prüfen
- Einige Funktionen haben möglicherweise separate Modellkonfigurationen
- Warp nach Änderungen neu starten
Verbindungsfehler
API-Endpunkt verifizieren:Einschränkungen
Nächste Schritte
- Aider - Terminal KI-Coding-Assistent
- Goose - Blocks Terminal-KI-Assistent
- Tool auswählen - Alle Optionen vergleichen