Zum Hauptinhalt springen
Blackbox AI ist eine VS Code-Erweiterung für KI-gestützte Codierungsunterstützung. Sie unterstützt benutzerdefinierte OpenAI-kompatible API-Provider und ermöglicht die Verbindung mit Infercoms EU-souveräner Inferenz-Plattform.
Einrichtungszeit: ~2 Minuten

Voraussetzungen

Konfiguration

Schritt 1: Blackbox-Einstellungen öffnen

  1. Öffnen Sie VS Code
  2. Klicken Sie auf das Blackbox AI-Symbol in der Seitenleiste
  3. Klicken Sie auf Einstellungen (Zahnradsymbol) oben rechts im Blackbox-Panel

Schritt 2: API-Provider konfigurieren

Geben Sie im Einstellungsdialog ein:
FeldWert
API ProviderOpenAI Compatible
Base URLhttps://api.infercom.ai/v1
API KeyIhr Infercom API-Schlüssel
Model IDMiniMax-M2.5

Schritt 3: Modelleinstellungen konfigurieren

Erweitern Sie MODEL CONFIGURATION und setzen Sie:
FeldWert
Supports ImagesDeaktiviert
Context Window Size163840
Max Output Tokens-1 (unbegrenzt)

Schritt 4: Speichern

Klicken Sie auf Save, um die Konfiguration anzuwenden. Blackbox AI Einstellungen für Infercom konfiguriert

Modell

Verwenden Sie MiniMax-M2.5 - optimiert für agentisches Coding mit 160K Kontext und 75,8% SWE-bench.
MetrikWert
SWE-bench75,8%
Kontextfenster160K Token
Durchsatz400+ Token/Sek
ReasoningIntegriert

Überprüfung

Testen Sie nach der Einrichtung mit einer einfachen Anfrage:
Schreibe eine Python-Funktion, die prüft, ob eine Zahl eine Primzahl ist
Die Antwort sollte MiniMax-M2.5s schnelle Inferenz zeigen (typischerweise unter 300ms Zeit bis zum ersten Token).

Fehlerbehebung

”Invalid API Key”-Fehler

  • Überprüfen Sie Ihren API-Schlüssel unter cloud.infercom.ai
  • Stellen Sie sicher, dass keine zusätzlichen Leerzeichen im API-Schlüssel-Feld sind

”Model not found”-Fehler

  • Prüfen Sie, ob die Model-ID exakt MiniMax-M2.5 lautet (Groß-/Kleinschreibung beachten)
  • Verfügbare Modelle überprüfen: curl https://api.infercom.ai/v1/models

Langsame Antworten

  • Überprüfen Sie Ihre Internetverbindung
  • Die Infercom API wird in der EU (München) gehostet - Latenz kann je nach Standort variieren
  • Die erste Anfrage kann aufgrund des Modell-Ladens langsamer sein

Nächste Schritte