Zum Inhalt

Home

LLM Client Logo

Infografik

Der LLM Client ist ein vielseitiges Python-Werkzeug, das eine einheitliche Schnittstelle für den Zugriff auf diverse KI-Anbieter wie OpenAI, Groq, Google Gemini und Ollama bietet. Die Software zeichnet sich durch eine automatische API-Erkennung aus, die bei fehlenden Schlüsseln flexibel auf eine lokale Ollama Instanz zurückgreift. Zu den technischen Highlights gehören präzise Token-Zählung, volle Async-Unterstützung sowie die Fähigkeit, während der Laufzeit dynamisch zwischen verschiedenen Providern zu wechseln. Dank einer sauberen Architektur auf Basis von Entwurfsmustern ermöglicht die Bibliothek zudem erweitertes Tool-Calling und den Upload verschiedenster Dateiformate. Die Bibliothek ermöglicht eine einfache Handhabung im Vergleich zu komplexeren Frameworks und bietet eine nahtlose Integration in Umgebungen wie Google Colab.

graph TD subgraph "Ein Code" CODE["client = LLMClient()
response = client.chat_completion(messages)"] end subgraph "Vier APIs" OPENAI[OpenAI] GROQ[Groq] GEMINI[Gemini] OLLAMA[Ollama
Lokal/Cloud] end subgraph "Viele Möglichkeiten" SWITCH[🔄 Provider wechseln] TOKENS[📊 Kosten überwachen] ASYNC[⚡ Async/Await] STREAM[🌊 Streaming] FILES[📎 Dateien senden] end CODE --> OPENAI CODE --> GROQ CODE --> GEMINI CODE --> OLLAMA GEMINI -.-> ASYNC GEMINI -.-> SWITCH GEMINI -.-> TOKENS GEMINI -.-> STREAM GEMINI -.-> FILES classDef codeClass fill:#e1f5ff,stroke:#01579b,stroke-width:3px,color:#000 classDef apiClass fill:#e8f5e green,stroke:#1b5e20,stroke-width:2px,color:#000 classDef featureClass fill:#fff9c4,stroke:#f57f17,stroke-width:2px,color:#000 class CODE codeClass class OPENAI,GROQ,GEMINI,OLLAMA apiClass class SWITCH,TOKENS,ASYNC,STREAM,FILES featureClass

🚀 Features

Kern-Features

  • 🔍 Automatische API-Erkennung - Nutzt verfügbare API-Keys oder fällt auf Ollama zurück
  • ⚙️ Einheitliches Interface - Eine Methode für alle LLM-Backends
  • 🔄 Dynamischer Provider-Wechsel - Wechsel zwischen APIs zur Laufzeit ohne neues Objekt
  • 🧩 Flexible Konfiguration - Modell, Temperatur, Tokens frei wählbar
  • 🔐 Google Colab Support - Automatisches Laden von Secrets aus userdata
  • 📦 Zero-Config - Funktioniert out-of-the-box mit Ollama
  • 📊 Token-Zählung mit tiktoken - Präzise Token-Zählung für Kostenmanagement
  • Vollständige Async-Unterstützung - Async/await für alle Provider
  • 📁 Konfigurationsdateien - YAML/JSON-Konfiguration für Multi-Provider-Setups

Architektur

  • 🏗️ Strategy Pattern - Saubere Architektur mit Provider-Klassen
  • 🏭 Factory Pattern - Zentrale Provider-Erstellung und -Verwaltung

🚦 Schnellstart

from llm_client import LLMClient

# Automatische API-Erkennung
client = LLMClient()

messages = [
    {"role": "system", "content": "Du bist ein hilfreicher Assistent."},
    {"role": "user", "content": "Erkläre Machine Learning in einem Satz."}
]

response = client.chat_completion(messages)
print(response)

📖 Dokumentation

Erste Schritte

Features

Weitere Ressourcen