Die Localmind API kann wie jede andere gewöhnliche REST API mittels HTTP Requests angefragt werden, oder mittels einer OpenAI-kompatiblen Bibliothek wie beispielsweise der Python-Bibliothek von OpenAI, oder mit Frameworks wie Langchain oder LlamaIndex.
Wir haben unsere API so ausgestaltet, dass sie 100% mit der OpenAI API kompatibel ist. Dadurch lässt sich die Localmind API genauso verwenden wie die OpenAI API und kann als Drop-In-Replacement genutzt werden.
Aktuell werden die Endpoints /models
, /chat/completions
sowie /completions
unterstützt. Eine Implementierung des /embeddings
Endpoints ist in Arbeit und wird in Kürze veröffentlicht.
Die Localmind API nutzt API-Schlüssel zur Authorisierung. Bitte beachte: dein API Schlüssel muss stets geheim bleiben! Jede Person, die den Schlüssel kennt, kannst deine API bis zu deinen gebuchten Limits verwenden. Sei deshalb vorsichtig und beachte alle Best Practices bei der Verwendung, Speicherung und Verwaltung von API-Schlüsseln.
Du findest deinen API-Schlüssel in deinem Dashboard unter dem Punkt API-Schlüssel.
Endpoint: /chat/completions
oder /v1/chat/completions
So sieht eine Beispiel-Abfage des Chat Completion Endpoints mittels cURL-Befehl aus:
curl https://api.localmind.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $LOCALMIND_API_KEY" \
-d '{
"model": "localmind-pro",
"messages": [
{
"role": "system",
"content": "Du bist ein hilfreicher KI-Assistent."
},
{
"role": "user",
"content": "Schreibe einen Blogartikel über die Zukunft von KI."
}
]
}'
Endpoint: /models
oder /v1/models
So sieht eine Beispiel-Abfrage des Models-Endpoints mittels cURL-Befehl aus:
curl https://api.localmind.ai/v1/models \
-H "Authorization: Bearer $LOCALMIND_API_KEY"