Bibliothek herunterladen
Führen Sie den folgenden Befehl aus, um die Bibliothek herunterzuladen.Infercom APIs mit OpenAI-Client-Bibliotheken verwenden
Die Konfiguration Ihrer OpenAI-Client-Bibliotheken für die Verwendung der Infercom KI-Inferenz-APIs ist so einfach wie das Festlegen von zwei Werten: derbase_url und Ihres api_key, wie unten dargestellt.
Sie haben noch keinen Infercom API-Schlüssel? Holen Sie sich Ihren von der Seite API-Schlüssel und URLs.
Beispiel ohne Streaming
Der folgende Code demonstriert die Verwendung des OpenAI Python-Clients für Vervollständigungen ohne Streaming.Beispiel mit Streaming
Der folgende Code demonstriert die Verwendung des OpenAI Python-Clients für Vervollständigungen mit Streaming.Im Streaming-Modus gibt die API Chunks zurück, die mehrere Tokens enthalten. Bei der Berechnung von Metriken wie Tokens pro Sekunde oder Zeit pro Ausgabe-Token stellen Sie sicher, dass Sie alle Tokens in jedem Chunk berücksichtigen.
Derzeit nicht unterstützte OpenAI-Funktionen
Die folgenden Funktionen werden noch nicht unterstützt und werden ignoriert:logprobstop_logprobsnpresence_penaltyfrequency_penaltylogit_biasseed
Funktionsunterschiede
temperature: Die Infercom API unterstützt einen Wert zwischen 0 und 1, während OpenAI Werte zwischen 0 und 2 unterstützt.
Infercom API-Funktionen, die von OpenAI-Clients nicht unterstützt werden
Die Infercom API unterstützt den Parametertop_k, der von den OpenAI-Client-Bibliotheken nicht unterstützt wird.