Provider¶
Der LLM Client unterstützt mehrere LLM-Provider. Jeder Provider bietet verschiedene Modelle und Konfigurationsoptionen.
Unterstützte Provider¶
- OpenAI - GPT-4o, GPT-4o-mini, GPT-3.5-turbo
- Groq - Llama 3.3, Mixtral (Ultra-schnelle Inferenz)
- Gemini - Googles Gemini Pro und Flash Modelle
- Ollama - Lokale LLMs (Llama 3, Phi-3, etc.)
- Ollama Cloud - Zugriff auf leistungsstarke Modelle ohne lokale GPU
So erhalten Sie API-Keys¶
Für die meisten Provider benötigen Sie einen API-Key. Anleitungen zur Erstellung finden Sie auf den jeweiligen Provider-Seiten: