Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt

Use this file to discover all available pages before exploring further.

Der Infercom Inference Service bietet Zugang zu einer breiten Auswahl an KI-Modellen über den Global Model Catalog. Modelle sind in zwei Kategorien verfügbar: EU-gehostete Modelle, die auf Infercoms souveräner Infrastruktur in Deutschland laufen, sowie zusätzliche Modelle über globale Infrastruktur.

EU-gehostete Modelle

Die folgenden Modelle laufen auf Infercoms EU-Infrastruktur in Deutschland. Für diese Modelle findet die gesamte Datenverarbeitung innerhalb der EU statt — keine Daten verlassen die EU-Gerichtsbarkeit, mit vollständiger DSGVO-Konformität und ohne Zugriff nach US CLOUD Act.
EntwicklerModell-IDKontextlängeFähigkeitenRegionAnsehen auf Hugging Face
MiniMaxMiniMax-M2.5160k TokensText, ReasoningEUModellkarte
OpenAIgpt-oss-120b128k TokensText, ReasoningEUModellkarte
Googlegemma-3-12b-it8k TokensText, VisionEUModellkarte

Global Model Catalog

Zusätzlich zu den EU-gehosteten Modellen bietet der Infercom Inference Service über den Global Model Catalog Zugang zu einer breiteren Auswahl an Modellen. Modelle, die nicht in unseren EU-Rechenzentren gehostet sind, werden über globale Infrastruktur bereitgestellt. Die Hosting-Region jedes Modells können Sie jederzeit über die API oder den Playground prüfen.
Jedes Modell ist eindeutig mit seiner Hosting-Region gekennzeichnet — sowohl in der API-Antwort als auch im Playground. Sie wissen immer, wo Ihre Daten verarbeitet werden.
EntwicklerModell-IDKontextlängeRegionFähigkeitenAnsehen auf Hugging Face
DeepSeekDeepSeek-V3.1128k TokensUSText, ReasoningModellkarte
DeepSeekDeepSeek-V3.232k TokensUSText, ReasoningModellkarte
MetaMeta-Llama-3.3-70B-Instruct128k TokensUSTextModellkarte
Siehe Modellregionen identifizieren unten, um zu prüfen, wo jedes Modell läuft.

Modellregionen identifizieren

Sie können über die API oder den Playground feststellen, wo ein Modell gehostet wird.

Über die API

Der /v1/models-Endpunkt enthält ein sn_metadata-Objekt für jedes Modell. Verwenden Sie das region-Feld, um festzustellen, wo ein Modell gehostet wird: "EU" für souveräne Modelle auf Infercoms EU-Infrastruktur, oder eine Nicht-EU-Region (z.B. "US", "JP") für Modelle auf globaler Infrastruktur. Verwenden Sie den ?verbose=true-Abfrageparameter, um detaillierte Modell-Metadaten einschließlich Souveränitätsinformationen abzurufen:
curl -s "https://api.infercom.ai/v1/models?verbose=true" \
  -H "Authorization: Bearer $INFERCOM_API_KEY" | \
  jq '.data[] | {id, region: .sn_metadata.region}'
Beispielantwort für ein EU-gehostetes Modell:
{
  "id": "MiniMax-M2.5",
  "object": "model",
  "sn_metadata": {
    "is_external": false,
    "region": "EU"
  }
}
Beispielantwort für ein global geroutetes Modell:
{
  "id": "DeepSeek-R1-0528",
  "object": "model",
  "sn_metadata": {
    "is_external": true,
    "region": "US"
  }
}

Über den Playground

Im Infercom Playground werden Regionsflaggen neben jedem Modellnamen angezeigt, sodass Sie auf einen Blick sehen können, wo jedes Modell läuft.

Datensouveränität

EU-Souveränität gilt nur für EU-gehostete Modelle. Bei der Nutzung von Modellen aus dem Global Model Catalog, die nicht auf EU-Infrastruktur gehostet sind, werden Anfragen auf globaler Infrastruktur außerhalb der EU verarbeitet. Prüfen Sie immer die Region des Modells, bevor Sie sensible oder regulierte Daten verarbeiten.
Für EU-gehostete Modelle bietet Infercom:
  • EU-Datenresidenz — Inferenz läuft in unseren EU-Rechenzentren
  • DSGVO-Konformität — vollständige Einhaltung der EU-Datenschutzverordnung
  • Kein US CLOUD Act-Zugriff — Ihre Inferenzdaten unterliegen nicht der US-Gerichtsbarkeit
  • AI Act-Bereitschaft — konzipiert für die Einhaltung des EU AI Act