12. März 2026
Modellaktualisierung: MiniMax M2.5 ersetzt Meta-Llama-3.3-70B-Instruct- MiniMax M2.5 ist jetzt als EU-gehostetes Modell auf Infercoms souveräner Infrastruktur in Deutschland verfügbar
- Meta-Llama-3.3-70B-Instruct wurde eingestellt und von der Plattform entfernt. Siehe Veraltungen für Migrationsinformationen
- Ratenbegrenzungen für MiniMax M2.5 aktualisiert
27. Februar 2026
Global Model Catalog Launch- 9 neue Modelle über den Global Model Catalog verfügbar, darunter DeepSeek-R1-0528, Qwen3-235B, Llama-4-Maverick und weitere
- EU-gehostete und global geroutete Modelle sind jetzt klar getrennt in der Modellübersicht
- Ratenbegrenzungen für alle 12 Modelle über Free und Developer Tier aktualisiert
- API
sn_metadatagibt jetztis_external- undregion-Felder für alle Modelle zurück
14. Februar 2026
Neue Dokumentation- Performance & Latenz-Leitfaden hinzugefügt mit Themen zu Connection Pooling, Performance-Metadaten in der API-Antwort, Streaming-Optimierung und Best Practices zur Latenzreduzierung
5. Februar 2026
Dokumentation für Global Model Catalog- Dokumentation für den Global Model Catalog hinzugefügt, mit EU-gehosteten und global gerouteten Modellen
- Dokumentiert wie man Modellregionen identifiziert über die API (
sn_metadata.region) und den Playground - API-Referenz mit
sn_metadata-Schema und?verbose=true-Abfrageparameter aktualisiert - Souveränitätsaussagen in der Dokumentation überprüft und für den Global Model Catalog präzisiert
23. Januar 2026
Modell-Update- DeepSeek-Modell von
DeepSeek-V3-0324-cbaufDeepSeek-V3.1mit erweitertem 128k-Kontextfenster aktualisiert - Das vorherige Modell wurde als veraltet markiert und ist auf der Veraltungsseite aufgeführt
- Ratenbegrenzungen für alle Modelle aktualisiert
13. Januar 2026
Neu- Hugging Face Spaces Chat-Demo - Interaktiver Chat mit Modellauswahl und Echtzeit-Performance-Metriken
- Dokumentationsbereinigung und Link-Korrekturen
30. Dezember 2025
Aktualisierung des Modellkatalogs mit den aktuell verfügbaren Modellen auf Infercom Inference Service. Die Modellliste und die Ratenbegrenzungen wurden entsprechend aktualisiert.17. November 2025
Wir freuen uns, die Einführung des Infercom-Dokumentationsportals bekannt zu geben. Diese umfassende Dokumentation wurde auf Basis der SambaNova-Dokumentation (Stand: 7. Oktober 2025) erstellt und für die EU-souveräne AI-Inferenz-Plattform von Infercom angepasst. Wichtigste Funktionen- Vollständige API-Referenzdokumentation mit OpenAI-kompatiblen Endpunkten.
- Entwicklerhandbücher für die Integration mit der Infercom-Inferenz-Plattform.
- Modellkatalog- und Konfigurationsdokumentation für alle unterstützten Modelle.
- Plattformarchitektur- und Bereitstellungsanleitungen.
- Anwendungsbeispiele in Python und TypeScript, unterstützt durch OpenAI-kompatible SDKs.