Erste Schritte¶
In diesem Guide erfährst du, wie du den LLM Client schnell in Betrieb nimmst.
1. Installation¶
Der erste Schritt ist die Installation des LLM Clients. Dies kann einfach über pip erfolgen:
Weitere Details und optionale Abhängigkeiten findest du im Installations-Leitfaden.
2. API-Keys konfigurieren¶
Um die meisten LLM-Provider nutzen zu können, benötigen Sie einen API-Key. Erstellen Sie eine secrets.env-Datei in Ihrem Projektverzeichnis:
# OpenAI
OPENAI_API_KEY=sk-xxxxxxxx
# Groq (optional)
GROQ_API_KEY=gsk-xxxxxxxx
# Google Gemini (optional)
GEMINI_API_KEY=AIzaSy-xxxxxxxx
Detaillierte Anweisungen zum Erhalt von Keys für die einzelnen Provider finden Sie im Provider-Abschnitt.
3. Erstes Beispiel¶
from llm_client import LLMClient
# Automatische API-Erkennung
client = LLMClient()
messages = [
{"role": "system", "content": "Du bist ein hilfreicher Assistent."},
{"role": "user", "content": "Was ist Machine Learning?"}
]
response = client.chat_completion(messages)
print(response)
Kernkonzepte¶
Automatische Provider-Auswahl¶
Der Client wählt automatisch den ersten verfügbaren API-Key aus:
- OpenAI (wenn
OPENAI_API_KEYgesetzt ist) - Groq (wenn
GROQ_API_KEYgesetzt ist) - Gemini (wenn
GEMINI_API_KEYgesetzt ist) - Ollama (Fallback, benötigt lokale Installation)
Manuelle Auswahl¶
# Bestimmten Provider erzwingen
client = LLMClient(api_choice="gemini")
# Mit benutzerdefiniertem Modell und Parametern
client = LLMClient(
api_choice="openai",
llm="gpt-4o",
temperature=0.5,
max_tokens=2048
)
Wichtige Funktionen¶
- Chat Completion: Standard-Anfragen an LLMs.
- Streaming: Erhalte Antworten in Echtzeit.
- Token-Zählung: Behalte die Kosten im Blick.
- Provider-Wechsel: Wechsle die API zur Laufzeit.
- Konfigurationsdateien: Lade Einstellungen aus YAML oder JSON.
- Async-Support: Nutze
async/awaitfür performante Anwendungen.
Nächste Schritte¶
- Features - Übersicht der Funktionen
- API-Referenz - Ausführliche Dokumentation der Klassen
- Beispiele - Praxisnahe Anwendungsfälle