Documentation Index
Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt
Use this file to discover all available pages before exploring further.
15. Mai 2026
Responses API- Neuer
POST /v1/responsesEndpunkt für agentenbasierte Workflows - unterstützt Function Tools, Streaming und Reasoning-Effort-Steuerung - Kompatibel mit OpenAI Responses API Standard
- Unterstützte Modelle:
MiniMax-M2.5,gpt-oss-120b - Dokumentation
gemma-3-12b-itauf EU-souveräne Infrastruktur verschoben - erstes vision-fähiges Modell mit vollständiger EU-Datensouveränität- Vision-Leitfaden
- Codex CLI jetzt über Responses API unterstützt
- Cline und OpenCode Anleitungen mit Plan/Execute-Konfigurationsmuster aktualisiert
24. April 2026
Modellkatalog-Updates- DeepSeek-V3.1 in Global Model Catalog verschoben: Wird jetzt via Proxy (US-Region) statt EU-gehosteter Infrastruktur bereitgestellt
- gemma-3-12b-it hinzugefügt: Googles Gemma 3 12B-Modell jetzt über den Global Model Catalog verfügbar (Japan). Dies ist das erste vision-fähige Modell auf Infercom — siehe Vision-Leitfaden
- DeepSeek-V3.2 Kontextlänge korrigiert: Von 8k auf 32k Tokens aktualisiert
- EU-gehostete Modelle: MiniMax-M2.5 und gpt-oss-120b bleiben als souveräne EU-Optionen
- Vision-Leitfaden mit gemma-3-12b-it-Beispielen und Souveränitätshinweis aktualisiert
- Fähigkeiten-Spalte zu Modellübersicht-Tabellen hinzugefügt
6. April 2026
Neue Dokumentation: Agentic Coding- Agentic Coding-Bereich mit Anleitungen für 9 KI-Coding-Tools hinzugefügt
- Terminal-Tools: Aider, OpenCode, Goose, Warp
- IDE-Tools: Cursor, Cline, Continue, Windsurf
- Fortgeschritten: Claude Code via ccproxy
- Tool-Vergleichsanleitung - Empfehlungen zur Tool-Auswahl
3. April 2026
Global Model Catalog optimiert- Global Model Catalog auf 2 Modelle reduziert:
Meta-Llama-3.3-70B-Instruct(128k) undDeepSeek-V3.2(8k) - 8 Modelle eingestellt: Qwen3-32B, Qwen3-235B, DeepSeek-R1-0528, DeepSeek-R1-Distill-Llama-70B, DeepSeek-V3-0324, DeepSeek-V3.1-Terminus, Llama-4-Maverick-17B-128E-Instruct, Meta-Llama-3.1-8B-Instruct
- Siehe Veraltungen für Migrationsinformationen
- MiniMax-M2.5 Kontextlänge auf 160k korrigiert (war fälschlicherweise als 164k gelistet)
12. März 2026
Modellaktualisierung: MiniMax M2.5 ersetzt Meta-Llama-3.3-70B-Instruct- MiniMax M2.5 ist jetzt als EU-gehostetes Modell auf Infercoms souveräner Infrastruktur in Deutschland verfügbar
- Meta-Llama-3.3-70B-Instruct wurde eingestellt und von der Plattform entfernt. Siehe Veraltungen für Migrationsinformationen
- Ratenbegrenzungen für MiniMax M2.5 aktualisiert
27. Februar 2026
Global Model Catalog Launch- 9 neue Modelle über den Global Model Catalog verfügbar, darunter DeepSeek-R1-0528, Qwen3-235B, Llama-4-Maverick und weitere
- EU-gehostete und global geroutete Modelle sind jetzt klar getrennt in der Modellübersicht
- Ratenbegrenzungen für alle 12 Modelle über Free und Developer Tier aktualisiert
- API
sn_metadatagibt jetztis_external- undregion-Felder für alle Modelle zurück
14. Februar 2026
Neue Dokumentation- Performance & Latenz-Leitfaden hinzugefügt mit Themen zu Connection Pooling, Performance-Metadaten in der API-Antwort, Streaming-Optimierung und Best Practices zur Latenzreduzierung
5. Februar 2026
Dokumentation für Global Model Catalog- Dokumentation für den Global Model Catalog hinzugefügt, mit EU-gehosteten und global gerouteten Modellen
- Dokumentiert wie man Modellregionen identifiziert über die API (
sn_metadata.region) und den Playground - API-Referenz mit
sn_metadata-Schema und?verbose=true-Abfrageparameter aktualisiert - Souveränitätsaussagen in der Dokumentation überprüft und für den Global Model Catalog präzisiert
23. Januar 2026
Modell-Update- DeepSeek-Modell von
DeepSeek-V3-0324-cbaufDeepSeek-V3.1mit erweitertem 128k-Kontextfenster aktualisiert - Das vorherige Modell wurde als veraltet markiert und ist auf der Veraltungsseite aufgeführt
- Ratenbegrenzungen für alle Modelle aktualisiert
13. Januar 2026
Neu- Hugging Face Spaces Chat-Demo - Interaktiver Chat mit Modellauswahl und Echtzeit-Performance-Metriken
- Dokumentationsbereinigung und Link-Korrekturen
30. Dezember 2025
Aktualisierung des Modellkatalogs mit den aktuell verfügbaren Modellen auf Infercom Inference Service. Die Modellliste und die Ratenbegrenzungen wurden entsprechend aktualisiert.17. November 2025
Wir freuen uns, die Einführung des Infercom-Dokumentationsportals bekannt zu geben. Diese umfassende Dokumentation wurde auf Basis der SambaNova-Dokumentation (Stand: 7. Oktober 2025) erstellt und für die EU-souveräne AI-Inferenz-Plattform von Infercom angepasst. Wichtigste Funktionen- Vollständige API-Referenzdokumentation mit OpenAI-kompatiblen Endpunkten.
- Entwicklerhandbücher für die Integration mit der Infercom-Inferenz-Plattform.
- Modellkatalog- und Konfigurationsdokumentation für alle unterstützten Modelle.
- Plattformarchitektur- und Bereitstellungsanleitungen.
- Anwendungsbeispiele in Python und TypeScript, unterstützt durch OpenAI-kompatible SDKs.