Der Infercom Inference Service bietet Zugang zu einer breiten Auswahl an KI-Modellen über den Global Model Catalog. Modelle sind in zwei Kategorien verfügbar: EU-gehostete Modelle, die auf Infercoms souveräner Infrastruktur in Deutschland laufen, sowie zusätzliche Modelle über globale Infrastruktur.Documentation Index
Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt
Use this file to discover all available pages before exploring further.
EU-gehostete Modelle
Die folgenden Modelle laufen auf Infercoms EU-Infrastruktur in Deutschland. Für diese Modelle findet die gesamte Datenverarbeitung innerhalb der EU statt — keine Daten verlassen die EU-Gerichtsbarkeit, mit vollständiger DSGVO-Konformität und ohne Zugriff nach US CLOUD Act.| Entwickler | Modell-ID | Kontextlänge | Fähigkeiten | Region | Ansehen auf Hugging Face |
|---|---|---|---|---|---|
| MiniMax | MiniMax-M2.5 | 160k Tokens | Text, Reasoning | EU | Modellkarte |
| OpenAI | gpt-oss-120b | 128k Tokens | Text, Reasoning | EU | Modellkarte |
gemma-3-12b-it | 8k Tokens | Text, Vision | EU | Modellkarte |
Global Model Catalog
Zusätzlich zu den EU-gehosteten Modellen bietet der Infercom Inference Service über den Global Model Catalog Zugang zu einer breiteren Auswahl an Modellen. Modelle, die nicht in unseren EU-Rechenzentren gehostet sind, werden über globale Infrastruktur bereitgestellt. Die Hosting-Region jedes Modells können Sie jederzeit über die API oder den Playground prüfen.Jedes Modell ist eindeutig mit seiner Hosting-Region gekennzeichnet — sowohl in der API-Antwort als auch im Playground. Sie wissen immer, wo Ihre Daten verarbeitet werden.
| Entwickler | Modell-ID | Kontextlänge | Region | Fähigkeiten | Ansehen auf Hugging Face |
|---|---|---|---|---|---|
| DeepSeek | DeepSeek-V3.1 | 128k Tokens | US | Text, Reasoning | Modellkarte |
| DeepSeek | DeepSeek-V3.2 | 32k Tokens | US | Text, Reasoning | Modellkarte |
| Meta | Meta-Llama-3.3-70B-Instruct | 128k Tokens | US | Text | Modellkarte |
Modellregionen identifizieren
Sie können über die API oder den Playground feststellen, wo ein Modell gehostet wird.Über die API
Der/v1/models-Endpunkt enthält ein sn_metadata-Objekt für jedes Modell. Verwenden Sie das region-Feld, um festzustellen, wo ein Modell gehostet wird: "EU" für souveräne Modelle auf Infercoms EU-Infrastruktur, oder eine Nicht-EU-Region (z.B. "US", "JP") für Modelle auf globaler Infrastruktur.
Verwenden Sie den ?verbose=true-Abfrageparameter, um detaillierte Modell-Metadaten einschließlich Souveränitätsinformationen abzurufen:
Über den Playground
Im Infercom Playground werden Regionsflaggen neben jedem Modellnamen angezeigt, sodass Sie auf einen Blick sehen können, wo jedes Modell läuft.Datensouveränität
Für EU-gehostete Modelle bietet Infercom:- EU-Datenresidenz — Inferenz läuft in unseren EU-Rechenzentren
- DSGVO-Konformität — vollständige Einhaltung der EU-Datenschutzverordnung
- Kein US CLOUD Act-Zugriff — Ihre Inferenzdaten unterliegen nicht der US-Gerichtsbarkeit
- AI Act-Bereitschaft — konzipiert für die Einhaltung des EU AI Act