Zum Hauptinhalt springen
Aider ist ein terminalbasierter KI-Coding-Assistent, der direkt mit Ihrem Git-Repository arbeitet. Er kann Änderungen über mehrere Dateien vornehmen, Ihren Codebase-Kontext verstehen und Änderungen automatisch committen.
Verifiziert funktionierend mit MiniMax-M2.5 auf Infercom.

Voraussetzungen

Installation

pip3 install aider-chat
Installation verifizieren:
aider --version

Konfiguration

Option 1: Umgebungsvariablen (Empfohlen)

Diese Umgebungsvariablen setzen:
export OPENAI_API_BASE="https://api.infercom.ai/v1"
export OPENAI_API_KEY="ihr-infercom-api-key"
Dann Aider ausführen:
aider --model openai/MiniMax-M2.5
Fügen Sie die Export-Befehle zu Ihrem Shell-Profil (~/.bashrc, ~/.zshrc) für Persistenz hinzu.

Option 2: Konfigurationsdatei

~/.aider.conf.yml erstellen:
openai-api-base: https://api.infercom.ai/v1
openai-api-key: ihr-infercom-api-key
model: openai/MiniMax-M2.5
Dann einfach ausführen:
aider

Option 3: Kommandozeile

Alles auf der Kommandozeile übergeben:
OPENAI_API_BASE="https://api.infercom.ai/v1" \
OPENAI_API_KEY="ihr-infercom-api-key" \
aider --model openai/MiniMax-M2.5

Modell

MiniMax-M2.5 mit dem openai/-Präfix verwenden:
openai/MiniMax-M2.5
Das openai/-Präfix ist erforderlich. Nur MiniMax-M2.5 funktioniert nicht.

Beispielverwendung

Interaktiver Modus

cd ihr-projekt
aider --model openai/MiniMax-M2.5
Dann mit Aider chatten:
> Füge Fehlerbehandlung zur main-Funktion in app.py hinzu

Nicht-interaktiver Modus

aider --model openai/MiniMax-M2.5 \
  --message "Füge eine Hello-World-Funktion hinzu" \
  --yes \
  main.py

Auto-Commits deaktivieren

aider --model openai/MiniMax-M2.5 --no-auto-commits

Reasoning-Ausgabe

MiniMax-M2.5 hat eingebaute Reasoning-Fähigkeiten. Um den Denkprozess des Modells zu sehen, Streaming deaktivieren:
aider --model openai/MiniMax-M2.5 --no-stream
Sie sehen einen THINKING-Abschnitt vor jeder Antwort mit dem Reasoning des Modells.

Reasoning-Intensität steuern

Sie können die Reasoning-Intensität mit --reasoning-effort anpassen:
aider --model openai/MiniMax-M2.5 \
  --no-stream \
  --reasoning-effort medium \
  --no-check-model-accepts-settings
Gültige Werte: low, medium, high
--no-stream ist erforderlich um Reasoning-Ausgabe anzuzeigen. Das --no-check-model-accepts-settings-Flag wird benötigt, weil Aider MiniMax’ Reasoning-Unterstützung standardmäßig nicht erkennt.

Fehlerbehebung

Unbekanntes Modell Warnung

Sie könnten diese Warnung sehen:
Warning for openai/MiniMax-M2.5: Unknown context window size and costs,
using sane defaults.
Lösung: ~/.aider.model.metadata.json mit MiniMax-M2.5 Spezifikationen erstellen:
{
  "openai/MiniMax-M2.5": {
    "max_tokens": 16384,
    "max_input_tokens": 160000,
    "max_output_tokens": 16384,
    "input_cost_per_token": 0.0000003,
    "output_cost_per_token": 0.0000012,
    "litellm_provider": "openai",
    "mode": "chat",
    "accepts_settings": ["reasoning_effort"]
  }
}
Dies ermöglicht korrekte Kontextfenster-Handhabung und Kostenverfolgung. Alternative: Die Warnung mit --no-show-model-warnings unterdrücken:
aider --model openai/MiniMax-M2.5 --no-show-model-warnings

Verbindungsfehler

Konfiguration verifizieren:
curl -s https://api.infercom.ai/v1/models \
  -H "Authorization: Bearer $OPENAI_API_KEY" | head -20
Sie sollten eine Liste verfügbarer Modelle sehen.

Modell nicht gefunden

Stellen Sie sicher, dass Sie den korrekten Modellnamen mit dem openai/-Präfix verwenden:
# Richtig
aider --model openai/MiniMax-M2.5

# Falsch
aider --model MiniMax-M2.5

Performance

  • Token-Durchsatz: 400+ Tokens/Sek mit MiniMax-M2.5
  • Kontextfenster: 160K Tokens (163.840) - bewältigt große Codebasen
  • Qualität: 75,8% SWE-bench verifiziert

Nächste Schritte