Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt

Use this file to discover all available pages before exploring further.

15. Mai 2026

Responses API
  • Neuer POST /v1/responses Endpunkt für agentenbasierte Workflows - unterstützt Function Tools, Streaming und Reasoning-Effort-Steuerung
  • Kompatibel mit OpenAI Responses API Standard
  • Unterstützte Modelle: MiniMax-M2.5, gpt-oss-120b
  • Dokumentation
Modell-Update
  • gemma-3-12b-it auf EU-souveräne Infrastruktur verschoben - erstes vision-fähiges Modell mit vollständiger EU-Datensouveränität
  • Vision-Leitfaden
Neue Integration
  • Codex CLI jetzt über Responses API unterstützt
  • Cline und OpenCode Anleitungen mit Plan/Execute-Konfigurationsmuster aktualisiert

24. April 2026

Modellkatalog-Updates
  • DeepSeek-V3.1 in Global Model Catalog verschoben: Wird jetzt via Proxy (US-Region) statt EU-gehosteter Infrastruktur bereitgestellt
  • gemma-3-12b-it hinzugefügt: Googles Gemma 3 12B-Modell jetzt über den Global Model Catalog verfügbar (Japan). Dies ist das erste vision-fähige Modell auf Infercom — siehe Vision-Leitfaden
  • DeepSeek-V3.2 Kontextlänge korrigiert: Von 8k auf 32k Tokens aktualisiert
  • EU-gehostete Modelle: MiniMax-M2.5 und gpt-oss-120b bleiben als souveräne EU-Optionen
Dokumentations-Updates

6. April 2026

Neue Dokumentation: Agentic Coding

3. April 2026

Global Model Catalog optimiert
  • Global Model Catalog auf 2 Modelle reduziert: Meta-Llama-3.3-70B-Instruct (128k) und DeepSeek-V3.2 (8k)
  • 8 Modelle eingestellt: Qwen3-32B, Qwen3-235B, DeepSeek-R1-0528, DeepSeek-R1-Distill-Llama-70B, DeepSeek-V3-0324, DeepSeek-V3.1-Terminus, Llama-4-Maverick-17B-128E-Instruct, Meta-Llama-3.1-8B-Instruct
  • Siehe Veraltungen für Migrationsinformationen
  • MiniMax-M2.5 Kontextlänge auf 160k korrigiert (war fälschlicherweise als 164k gelistet)

12. März 2026

Modellaktualisierung: MiniMax M2.5 ersetzt Meta-Llama-3.3-70B-Instruct
  • MiniMax M2.5 ist jetzt als EU-gehostetes Modell auf Infercoms souveräner Infrastruktur in Deutschland verfügbar
  • Meta-Llama-3.3-70B-Instruct wurde eingestellt und von der Plattform entfernt. Siehe Veraltungen für Migrationsinformationen
  • Ratenbegrenzungen für MiniMax M2.5 aktualisiert

27. Februar 2026

Global Model Catalog Launch
  • 9 neue Modelle über den Global Model Catalog verfügbar, darunter DeepSeek-R1-0528, Qwen3-235B, Llama-4-Maverick und weitere
  • EU-gehostete und global geroutete Modelle sind jetzt klar getrennt in der Modellübersicht
  • Ratenbegrenzungen für alle 12 Modelle über Free und Developer Tier aktualisiert
  • API sn_metadata gibt jetzt is_external- und region-Felder für alle Modelle zurück

14. Februar 2026

Neue Dokumentation
  • Performance & Latenz-Leitfaden hinzugefügt mit Themen zu Connection Pooling, Performance-Metadaten in der API-Antwort, Streaming-Optimierung und Best Practices zur Latenzreduzierung

5. Februar 2026

Dokumentation für Global Model Catalog
  • Dokumentation für den Global Model Catalog hinzugefügt, mit EU-gehosteten und global gerouteten Modellen
  • Dokumentiert wie man Modellregionen identifiziert über die API (sn_metadata.region) und den Playground
  • API-Referenz mit sn_metadata-Schema und ?verbose=true-Abfrageparameter aktualisiert
  • Souveränitätsaussagen in der Dokumentation überprüft und für den Global Model Catalog präzisiert

23. Januar 2026

Modell-Update
  • DeepSeek-Modell von DeepSeek-V3-0324-cb auf DeepSeek-V3.1 mit erweitertem 128k-Kontextfenster aktualisiert
  • Das vorherige Modell wurde als veraltet markiert und ist auf der Veraltungsseite aufgeführt
  • Ratenbegrenzungen für alle Modelle aktualisiert

13. Januar 2026

Neu Verbesserungen
  • Dokumentationsbereinigung und Link-Korrekturen

30. Dezember 2025

Aktualisierung des Modellkatalogs mit den aktuell verfügbaren Modellen auf Infercom Inference Service. Die Modellliste und die Ratenbegrenzungen wurden entsprechend aktualisiert.

17. November 2025

Wir freuen uns, die Einführung des Infercom-Dokumentationsportals bekannt zu geben. Diese umfassende Dokumentation wurde auf Basis der SambaNova-Dokumentation (Stand: 7. Oktober 2025) erstellt und für die EU-souveräne AI-Inferenz-Plattform von Infercom angepasst. Wichtigste Funktionen
  • Vollständige API-Referenzdokumentation mit OpenAI-kompatiblen Endpunkten.
  • Entwicklerhandbücher für die Integration mit der Infercom-Inferenz-Plattform.
  • Modellkatalog- und Konfigurationsdokumentation für alle unterstützten Modelle.
  • Plattformarchitektur- und Bereitstellungsanleitungen.
  • Anwendungsbeispiele in Python und TypeScript, unterstützt durch OpenAI-kompatible SDKs.
Die gesamte Dokumentation wird kontinuierlich aktualisiert, um Infercom-spezifische Funktionen, europäische Datensouveränitätsfähigkeiten und Plattformverbesserungen widerzuspiegeln, sobald diese verfügbar werden.