Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt

Use this file to discover all available pages before exploring further.

Codex CLI ist OpenAIs Open-Source agentenbasierter Coding-Assistent, der in Ihrem Terminal läuft. Er kann Dateien lesen, Code schreiben, Befehle ausführen und seine Arbeit über die Responses API iterativ verbessern.
Erfordert Responses API - Codex CLI verwendet den /v1/responses-Endpunkt, den Infercom mit MiniMax-M2.5 unterstützt.

Voraussetzungen

Installation

npm install -g @openai/codex
Installation überprüfen:
codex --version
macOS-Benutzer: Wenn macOS die Binärdatei als “Malware” blockiert, gehen Sie zu Systemeinstellungen > Sicherheit und klicken Sie auf “Trotzdem erlauben”, oder führen Sie aus:
xattr -d com.apple.quarantine $(which codex)

Konfiguration

Codex CLI unterstützt benutzerdefinierte Anbieter über eine TOML-Konfigurationsdatei.

Schritt 1: Umgebungsvariable setzen

export INFERCOM_API_KEY="ihr-infercom-api-schluessel"
Fügen Sie dies zu Ihrem Shell-Profil (~/.bashrc, ~/.zshrc) für Persistenz hinzu.

Schritt 2: Konfigurationsdatei erstellen

Erstellen Sie ~/.codex/config.toml:
# Infercom als Provider definieren
[model_providers.infercom]
name = "Infercom (EU Sovereign)"
base_url = "https://api.infercom.ai/v1"
env_key = "INFERCOM_API_KEY"
wire_api = "responses"

# Standard-Profil mit MiniMax-M2.5
model_provider = "infercom"
model = "MiniMax-M2.5"
Für komplexe Aufgaben, die tieferes Reasoning erfordern, unterstützt Codex CLI Profile mit verschiedenen Modellen. Sie können ein Frontier-Modell (Claude, GPT, Gemini) für die Planung und MiniMax-M2.5 für die Ausführung verwenden. Siehe Codex Dokumentation für die Profil-Konfiguration.

Schritt 3: Setup überprüfen

Starten Sie Codex in einem beliebigen Projektverzeichnis:
codex
Sie sollten sehen, dass Codex startet mit:
model: MiniMax-M2.5
provider: infercom

Modell

Verwenden Sie MiniMax-M2.5 - optimiert für Agentic Coding mit 160K Kontext, eingebautem Reasoning und 75,8% SWE-bench.

Verwendung

Interaktiver Modus

Starten Sie Codex in Ihrem Projektverzeichnis:
cd ihr-projekt
codex
Geben Sie Ihre Anfrage ein und Codex wird:
  • Relevante Dateien lesen
  • Code schreiben oder bearbeiten
  • Terminal-Befehle ausführen
  • Iterieren bis die Aufgabe abgeschlossen ist

Beispielaufgaben

  • “Füge Fehlerbehandlung zur Login-Funktion hinzu”
  • “Schreibe Unit-Tests für die User-Klasse”
  • “Refaktoriere diese Datei zur Verwendung von async/await”
  • “Finde und behebe den Bug, der den Test fehlschlagen lässt”

Nicht-interaktiver Modus

Für geskriptete oder einmalige Verwendung nutzen Sie das exec-Unterkommando:
codex exec "Füge Eingabevalidierung zu auth.py hinzu"

Konfigurationsoptionen

Vollständige ~/.codex/config.toml Referenz:
# Standardmodell
model = "MiniMax-M2.5"

# Zu verwendender Anbieter
model_provider = "infercom"

# Genehmigungsmodus: "suggest" (Standard), "auto-edit" oder "full-auto"
approval_mode = "suggest"

# Sandbox-Modus für Befehlsausführung
sandbox = "docker"  # oder "none" zum Deaktivieren

[model_providers.infercom]
name = "Infercom (EU Sovereign)"
base_url = "https://api.infercom.ai/v1"
env_key = "INFERCOM_API_KEY"
wire_api = "responses"

Genehmigungsmodi

ModusVerhalten
suggestZeigt Diffs und fragt vor dem Anwenden (Standard)
auto-editWendet Dateiänderungen automatisch an, fragt bei Befehlen
full-autoWendet alle Änderungen automatisch an

Fehlerbehebung

Verbindungsfehler

Überprüfen Sie Ihre Konfiguration:
# Prüfen ob API-Schlüssel gesetzt ist
echo $INFERCOM_API_KEY

# API direkt testen
curl -s https://api.infercom.ai/v1/responses \
  -H "Authorization: Bearer $INFERCOM_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model":"MiniMax-M2.5","input":"Hallo"}' | jq .status
Erwartete Ausgabe: "completed"

Modell nicht gefunden

Stellen Sie sicher, dass der Modellname exakt ist (Groß-/Kleinschreibung beachten): MiniMax-M2.5

Langsame Antworten

MiniMax-M2.5 läuft mit 400+ Tokens/Sekunde. Wenn Antworten langsam erscheinen:
  1. Überprüfen Sie Ihre Netzwerkverbindung
  2. Großer Kontext (viele Dateien) erhöht die Verarbeitungszeit
  3. Die erste Anfrage kann langsamer sein aufgrund des Modell-Ladens

Warum Codex CLI mit Infercom?

FeatureVorteil
EU-souveränDaten werden in Deutschland verarbeitet, DSGVO-konform
Responses APINative Unterstützung für Codex’ agentenbasierte Architektur
Schnelle Inferenz400+ Tokens/Sekunde mit MiniMax-M2.5
Kein Vendor Lock-inOpen-Source-Tool, Standard-API

Nächste Schritte

  • Aider - Alternatives Terminal-basiertes Tool
  • OpenCode - Moderne TUI mit ähnlichen Features
  • Responses API - API-Dokumentation für individuelle Integrationen