Codex CLI ist OpenAIs Open-Source agentenbasierter Coding-Assistent, der in Ihrem Terminal läuft. Er kann Dateien lesen, Code schreiben, Befehle ausführen und seine Arbeit über die Responses API iterativ verbessern.Documentation Index
Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt
Use this file to discover all available pages before exploring further.
Erfordert Responses API - Codex CLI verwendet den
/v1/responses-Endpunkt, den Infercom mit MiniMax-M2.5 unterstützt.Voraussetzungen
- Node.js 18 oder höher
- npm oder yarn
- Infercom API-Schlüssel
Installation
Konfiguration
Codex CLI unterstützt benutzerdefinierte Anbieter über eine TOML-Konfigurationsdatei.Schritt 1: Umgebungsvariable setzen
Schritt 2: Konfigurationsdatei erstellen
Erstellen Sie~/.codex/config.toml:
Schritt 3: Setup überprüfen
Starten Sie Codex in einem beliebigen Projektverzeichnis:Modell
Verwenden SieMiniMax-M2.5 - optimiert für Agentic Coding mit 160K Kontext, eingebautem Reasoning und 75,8% SWE-bench.
Verwendung
Interaktiver Modus
Starten Sie Codex in Ihrem Projektverzeichnis:- Relevante Dateien lesen
- Code schreiben oder bearbeiten
- Terminal-Befehle ausführen
- Iterieren bis die Aufgabe abgeschlossen ist
Beispielaufgaben
- “Füge Fehlerbehandlung zur Login-Funktion hinzu”
- “Schreibe Unit-Tests für die User-Klasse”
- “Refaktoriere diese Datei zur Verwendung von async/await”
- “Finde und behebe den Bug, der den Test fehlschlagen lässt”
Nicht-interaktiver Modus
Für geskriptete oder einmalige Verwendung nutzen Sie dasexec-Unterkommando:
Konfigurationsoptionen
Vollständige~/.codex/config.toml Referenz:
Genehmigungsmodi
| Modus | Verhalten |
|---|---|
suggest | Zeigt Diffs und fragt vor dem Anwenden (Standard) |
auto-edit | Wendet Dateiänderungen automatisch an, fragt bei Befehlen |
full-auto | Wendet alle Änderungen automatisch an |
Fehlerbehebung
Verbindungsfehler
Überprüfen Sie Ihre Konfiguration:"completed"
Modell nicht gefunden
Stellen Sie sicher, dass der Modellname exakt ist (Groß-/Kleinschreibung beachten):MiniMax-M2.5
Langsame Antworten
MiniMax-M2.5 läuft mit 400+ Tokens/Sekunde. Wenn Antworten langsam erscheinen:- Überprüfen Sie Ihre Netzwerkverbindung
- Großer Kontext (viele Dateien) erhöht die Verarbeitungszeit
- Die erste Anfrage kann langsamer sein aufgrund des Modell-Ladens
Warum Codex CLI mit Infercom?
| Feature | Vorteil |
|---|---|
| EU-souverän | Daten werden in Deutschland verarbeitet, DSGVO-konform |
| Responses API | Native Unterstützung für Codex’ agentenbasierte Architektur |
| Schnelle Inferenz | 400+ Tokens/Sekunde mit MiniMax-M2.5 |
| Kein Vendor Lock-in | Open-Source-Tool, Standard-API |
Nächste Schritte
- Aider - Alternatives Terminal-basiertes Tool
- OpenCode - Moderne TUI mit ähnlichen Features
- Responses API - API-Dokumentation für individuelle Integrationen