Aider ist ein terminalbasierter KI-Coding-Assistent, der direkt mit Ihrem Git-Repository arbeitet. Er kann Änderungen über mehrere Dateien vornehmen, Ihren Codebase-Kontext verstehen und Änderungen automatisch committen.
Verifiziert funktionierend mit MiniMax-M2.5 auf Infercom.
Voraussetzungen
Installation
Installation verifizieren:
Konfiguration
Option 1: Umgebungsvariablen (Empfohlen)
Diese Umgebungsvariablen setzen:
export OPENAI_API_BASE="https://api.infercom.ai/v1"
export OPENAI_API_KEY="ihr-infercom-api-key"
Dann Aider ausführen:
aider --model openai/MiniMax-M2.5
Fügen Sie die Export-Befehle zu Ihrem Shell-Profil (~/.bashrc, ~/.zshrc) für Persistenz hinzu.
Option 2: Konfigurationsdatei
~/.aider.conf.yml erstellen:
openai-api-base: https://api.infercom.ai/v1
openai-api-key: ihr-infercom-api-key
model: openai/MiniMax-M2.5
Dann einfach ausführen:
Option 3: Kommandozeile
Alles auf der Kommandozeile übergeben:
OPENAI_API_BASE="https://api.infercom.ai/v1" \
OPENAI_API_KEY="ihr-infercom-api-key" \
aider --model openai/MiniMax-M2.5
Modell
MiniMax-M2.5 mit dem openai/-Präfix verwenden:
Das openai/-Präfix ist erforderlich. Nur MiniMax-M2.5 funktioniert nicht.
Beispielverwendung
Interaktiver Modus
cd ihr-projekt
aider --model openai/MiniMax-M2.5
Dann mit Aider chatten:
> Füge Fehlerbehandlung zur main-Funktion in app.py hinzu
Nicht-interaktiver Modus
aider --model openai/MiniMax-M2.5 \
--message "Füge eine Hello-World-Funktion hinzu" \
--yes \
main.py
Auto-Commits deaktivieren
aider --model openai/MiniMax-M2.5 --no-auto-commits
Reasoning-Ausgabe
MiniMax-M2.5 hat eingebaute Reasoning-Fähigkeiten. Um den Denkprozess des Modells zu sehen, Streaming deaktivieren:
aider --model openai/MiniMax-M2.5 --no-stream
Sie sehen einen THINKING-Abschnitt vor jeder Antwort mit dem Reasoning des Modells.
Reasoning-Intensität steuern
Sie können die Reasoning-Intensität mit --reasoning-effort anpassen:
aider --model openai/MiniMax-M2.5 \
--no-stream \
--reasoning-effort medium \
--no-check-model-accepts-settings
Gültige Werte: low, medium, high
--no-stream ist erforderlich um Reasoning-Ausgabe anzuzeigen. Das --no-check-model-accepts-settings-Flag wird benötigt, weil Aider MiniMax’ Reasoning-Unterstützung standardmäßig nicht erkennt.
Fehlerbehebung
Unbekanntes Modell Warnung
Sie könnten diese Warnung sehen:
Warning for openai/MiniMax-M2.5: Unknown context window size and costs,
using sane defaults.
Lösung: ~/.aider.model.metadata.json mit MiniMax-M2.5 Spezifikationen erstellen:
{
"openai/MiniMax-M2.5": {
"max_tokens": 16384,
"max_input_tokens": 160000,
"max_output_tokens": 16384,
"input_cost_per_token": 0.0000003,
"output_cost_per_token": 0.0000012,
"litellm_provider": "openai",
"mode": "chat",
"accepts_settings": ["reasoning_effort"]
}
}
Dies ermöglicht korrekte Kontextfenster-Handhabung und Kostenverfolgung.
Alternative: Die Warnung mit --no-show-model-warnings unterdrücken:
aider --model openai/MiniMax-M2.5 --no-show-model-warnings
Verbindungsfehler
Konfiguration verifizieren:
curl -s https://api.infercom.ai/v1/models \
-H "Authorization: Bearer $OPENAI_API_KEY" | head -20
Sie sollten eine Liste verfügbarer Modelle sehen.
Modell nicht gefunden
Stellen Sie sicher, dass Sie den korrekten Modellnamen mit dem openai/-Präfix verwenden:
# Richtig
aider --model openai/MiniMax-M2.5
# Falsch
aider --model MiniMax-M2.5
- Token-Durchsatz: 400+ Tokens/Sek mit MiniMax-M2.5
- Kontextfenster: 160K Tokens (163.840) - bewältigt große Codebasen
- Qualität: 75,8% SWE-bench verifiziert
Nächste Schritte