Zum Hauptinhalt springen

Documentation Index

Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt

Use this file to discover all available pages before exploring further.

Der Infercom Entwicklerhandbuch und die API-Referenz bieten Ihnen die Tools, die Sie benötigen, um Anwendungen mit Infercom als Inference-Service zu erstellen.

API-Endpunkte

Infercom bietet zwei Haupt-API-Endpunkte für Textgenerierung:
EndpunktBeschreibungAm besten für
/v1/chat/completionsStandard OpenAI-kompatible Chat-APIKonversationsanwendungen
/v1/responsesStrukturierte Ausgabe-API für agentenbasierte WorkflowsCoding-Agenten, Tool-Aufrufe, mehrstufiges Reasoning
Siehe Responses API für Details zur Agentic API, oder Textgenerierung für die Chat Completions API.

Infercom Inference Service

Die Code-Beispiele in dieser API-Referenz enthalten die spezifischen URLs für die Entwicklung mit Infercom Inference Service.

Modell-Souveränitäts-Metadaten

Der /v1/models-Endpunkt unterstützt einen ?verbose=true-Abfrageparameter, der detaillierte Metadaten für jedes Modell zurückgibt, einschließlich Souveränitätsinformationen. Verwenden Sie das Feld sn_metadata.region, um festzustellen, wo ein Modell gehostet wird:
  • "EU" — das Modell läuft auf Infercoms EU-Infrastruktur in Deutschland mit vollständiger Datensouveränität
  • Leer oder nicht vorhanden — das Modell ist über SambaNovas globale Infrastruktur verfügbar
Siehe Unterstützte Modelle für Details und Code-Beispiele.