Zum Hauptinhalt springen
Beginnen Sie in nur wenigen Minuten mit der Verwendung der Infercom API.
1

Holen Sie sich Ihren API-Schlüssel.

Um einen API-Schlüssel zu generieren, gehen Sie zur Seite API-Schlüssel und URLs. Achten Sie beim Generieren von API-Schlüsseln darauf, diese sicher zu speichern, da sie später nicht mehr eingesehen werden können.
Sie können bis zu 25 API-Schlüssel generieren und verwenden.
2

Wählen Sie ein Modell.

Infercom Cloud-Entwickler können die verfügbaren Modelle und Details auf der Seite Infercom Cloud Modelle einsehen.
Wir verwenden Meta-Llama-3.3-70B-Instruct als Beispiel für den Rest dieser Anleitung.
3

Senden Sie eine API-Anfrage.

Sie können eine Inferenz-Anfrage auf verschiedene Arten senden. Sehen Sie sich zwei Beispiele unten an:
  • Infercom SDK - Verwenden Sie JavaScript oder Python für eine flexiblere Integration.
  • OpenAI Client-Bibliothek – Verwenden Sie JavaScript oder Python für eine flexiblere Integration.
  • CURL-Befehl – Senden Sie eine Anfrage direkt von der Befehlszeile aus.

Infercom SDK

Wählen Sie zunächst Ihre bevorzugte Programmiersprache. Öffnen Sie dann ein Terminal und führen Sie den Befehl aus, um das Infercom SDK zu installieren.
// Stellen Sie sicher, dass Node.js installiert ist.
npm install sambanova
Kopieren Sie als Nächstes den folgenden Code in eine neue Datei.
import SambaNova from "sambanova";

const client = new SambaNova({
  baseURL: "ihre-infercom-basis-url",
  apiKey: "ihr-infercom-api-schluessel",
});

const chatCompletion = await client.chat.completions.create({
  messages: [
    { role: "system", content: "Beantworte die Frage in ein paar Sätzen." },
    { role: "user", content: "Erzähle mir eine fröhliche Geschichte" },
  ],
  model: "Meta-Llama-3.3-70B-Instruct",
});

console.log(chatCompletion.choices[0].message.content);
Ersetzen Sie nach dem Kopieren des Codes in die Datei die Platzhalter-Strings "ihre-infercom-basis-url" und "ihr-infercom-api-schluessel" durch Ihre tatsächliche Basis-URL und Ihren API-Schlüssel. Führen Sie dann die Datei in einem Terminal mit dem unten gezeigten Befehl aus.
node hello-world.js
Nach dem Ausführen des Programms sollten Sie eine Ausgabe ähnlich dem unten gezeigten Beispiel sehen.
Hier ist eine fröhliche Geschichte: Eines Tages fand ein kleines Mädchen namens Sophie einen verlorenen Welpen in ihrer Nachbarschaft und beschloss, ihn mit nach Hause zu nehmen, um sich um ihn zu kümmern. Während sie den Welpen gesund pflegte, nannte sie ihn Max und die beiden wurden unzertrennliche beste Freunde, die jeden Tag auf Abenteuer gingen und zusammen spielten.

OpenAI Client-Bibliothek

Wählen Sie zunächst Ihre bevorzugte Programmiersprache. Öffnen Sie dann ein Terminalfenster und führen Sie den Befehl aus, um die OpenAI-Bibliothek zu installieren.
// Stellen Sie sicher, dass Node.js installiert ist.
npm install openai
Kopieren Sie als Nächstes den folgenden Code in eine neue Datei.
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "ihre-infercom-basis-url",
  apiKey: "ihr-infercom-api-schluessel",
});

const chatCompletion = await client.chat.completions.create({
  messages: [
    { role: "system", content: "Beantworte die Frage in ein paar Sätzen." },
    { role: "user", content: "Erzähle mir eine fröhliche Geschichte" },
  ],
  model: "Meta-Llama-3.3-70B-Instruct",
});

console.log(chatCompletion.choices[0].message.content);
Ersetzen Sie nach dem Kopieren in die Datei die String-Felder "ihre-infercom-basis-url" und "ihr-infercom-api-schluessel" durch Ihre Basis-URL und API-Schlüssel-Werte. Führen Sie dann die Datei mit dem unten stehenden Befehl in einem Terminalfenster aus.
node hello-world.js
Nach dem Ausführen des Programms sollten Sie nun eine Ausgabe ähnlich der unten gezeigten sehen.
Hier ist eine fröhliche Geschichte: Eines Tages fand ein kleines Mädchen namens Sophie einen verlorenen Welpen in ihrer Nachbarschaft und beschloss, ihn mit nach Hause zu nehmen, um sich um ihn zu kümmern. Während sie den Welpen gesund pflegte, nannte sie ihn Max und die beiden wurden unzertrennliche beste Freunde, die jeden Tag auf Abenteuer gingen und zusammen spielten.

CURL-Befehl

Führen Sie in einem Terminalfenster den CURL-Befehl aus, um Ihre erste Anfrage an die API zu senden.
export API_KEY="ihr-api-schluessel-hier"
export URL="ihre-url-hier"

curl -H "Authorization: Bearer $API_KEY" \
-H "Content-Type: application/json" \
-d '{
"messages": [
{"role": "system", "content": "Beantworte die Frage in ein paar Sätzen."},
{"role": "user", "content": "Erzähle mir eine fröhliche Geschichte"}
],
"stop": ["<|eot_id|>"],
"model": "Meta-Llama-3.3-70B-Instruct",
"stream": true, "stream_options": {"include_usage": true}
}' \
-X POST $URL

Nächste Schritte

Nachdem Sie nun Anfragen an ein Modell senden können, eröffnet sich Ihnen das große Potenzial zur Entwicklung KI-gestützter Anwendungen. Lassen Sie sich inspirieren, was Sie entwickeln können, indem Sie unsere AI Starter Kits erkunden, eine Sammlung von Open-Source-Python-Projekten.