Der Infercom Entwicklerhandbuch und die API-Referenz bieten Ihnen die Tools, die Sie benötigen, um Anwendungen mit Infercom als Inference-Service zu erstellen.Documentation Index
Fetch the complete documentation index at: https://docs.infercom.ai/llms.txt
Use this file to discover all available pages before exploring further.
API-Endpunkte
Infercom bietet zwei Haupt-API-Endpunkte für Textgenerierung:| Endpunkt | Beschreibung | Am besten für |
|---|---|---|
/v1/chat/completions | Standard OpenAI-kompatible Chat-API | Konversationsanwendungen |
/v1/responses | Strukturierte Ausgabe-API für agentenbasierte Workflows | Coding-Agenten, Tool-Aufrufe, mehrstufiges Reasoning |
Infercom Inference Service
Die Code-Beispiele in dieser API-Referenz enthalten die spezifischen URLs für die Entwicklung mit Infercom Inference Service.Modell-Souveränitäts-Metadaten
Der/v1/models-Endpunkt unterstützt einen ?verbose=true-Abfrageparameter, der detaillierte Metadaten für jedes Modell zurückgibt, einschließlich Souveränitätsinformationen. Verwenden Sie das Feld sn_metadata.region, um festzustellen, wo ein Modell gehostet wird:
"EU"— das Modell läuft auf Infercoms EU-Infrastruktur in Deutschland mit vollständiger Datensouveränität- Leer oder nicht vorhanden — das Modell ist über SambaNovas globale Infrastruktur verfügbar