Zum Hauptinhalt springen

12. März 2026

Modellaktualisierung: MiniMax M2.5 ersetzt Meta-Llama-3.3-70B-Instruct
  • MiniMax M2.5 ist jetzt als EU-gehostetes Modell auf Infercoms souveräner Infrastruktur in Deutschland verfügbar
  • Meta-Llama-3.3-70B-Instruct wurde eingestellt und von der Plattform entfernt. Siehe Veraltungen für Migrationsinformationen
  • Ratenbegrenzungen für MiniMax M2.5 aktualisiert

27. Februar 2026

Global Model Catalog Launch
  • 9 neue Modelle über den Global Model Catalog verfügbar, darunter DeepSeek-R1-0528, Qwen3-235B, Llama-4-Maverick und weitere
  • EU-gehostete und global geroutete Modelle sind jetzt klar getrennt in der Modellübersicht
  • Ratenbegrenzungen für alle 12 Modelle über Free und Developer Tier aktualisiert
  • API sn_metadata gibt jetzt is_external- und region-Felder für alle Modelle zurück

14. Februar 2026

Neue Dokumentation
  • Performance & Latenz-Leitfaden hinzugefügt mit Themen zu Connection Pooling, Performance-Metadaten in der API-Antwort, Streaming-Optimierung und Best Practices zur Latenzreduzierung

5. Februar 2026

Dokumentation für Global Model Catalog
  • Dokumentation für den Global Model Catalog hinzugefügt, mit EU-gehosteten und global gerouteten Modellen
  • Dokumentiert wie man Modellregionen identifiziert über die API (sn_metadata.region) und den Playground
  • API-Referenz mit sn_metadata-Schema und ?verbose=true-Abfrageparameter aktualisiert
  • Souveränitätsaussagen in der Dokumentation überprüft und für den Global Model Catalog präzisiert

23. Januar 2026

Modell-Update
  • DeepSeek-Modell von DeepSeek-V3-0324-cb auf DeepSeek-V3.1 mit erweitertem 128k-Kontextfenster aktualisiert
  • Das vorherige Modell wurde als veraltet markiert und ist auf der Veraltungsseite aufgeführt
  • Ratenbegrenzungen für alle Modelle aktualisiert

13. Januar 2026

Neu Verbesserungen
  • Dokumentationsbereinigung und Link-Korrekturen

30. Dezember 2025

Aktualisierung des Modellkatalogs mit den aktuell verfügbaren Modellen auf Infercom Inference Service. Die Modellliste und die Ratenbegrenzungen wurden entsprechend aktualisiert.

17. November 2025

Wir freuen uns, die Einführung des Infercom-Dokumentationsportals bekannt zu geben. Diese umfassende Dokumentation wurde auf Basis der SambaNova-Dokumentation (Stand: 7. Oktober 2025) erstellt und für die EU-souveräne AI-Inferenz-Plattform von Infercom angepasst. Wichtigste Funktionen
  • Vollständige API-Referenzdokumentation mit OpenAI-kompatiblen Endpunkten.
  • Entwicklerhandbücher für die Integration mit der Infercom-Inferenz-Plattform.
  • Modellkatalog- und Konfigurationsdokumentation für alle unterstützten Modelle.
  • Plattformarchitektur- und Bereitstellungsanleitungen.
  • Anwendungsbeispiele in Python und TypeScript, unterstützt durch OpenAI-kompatible SDKs.
Die gesamte Dokumentation wird kontinuierlich aktualisiert, um Infercom-spezifische Funktionen, europäische Datensouveränitätsfähigkeiten und Plattformverbesserungen widerzuspiegeln, sobald diese verfügbar werden.