Unterstützte Modelle
UFO unterstützt eine Vielzahl von LLM-Modellen und APIs. Sie können das Modell und die API, die vom HOST_AGENT und APP_AGENT verwendet werden, in der Datei config.yaml anpassen. Darüber hinaus können Sie einen BACKUP_AGENT konfigurieren, um Anfragen zu bearbeiten, wenn der primäre Agent nicht antwortet.
Weitere Informationen zu den unterstützten Modellen und APIs finden Sie in den folgenden Abschnitten.
| LLMs | Dokumentation |
|---|---|
OPENAI |
OpenAI API |
Azure OpenAI (AOAI) |
Azure OpenAI API |
Gemini |
Gemini API |
Claude |
Claude API |
QWEN |
QWEN API |
Ollama |
Ollama API |
Benutzerdefiniert |
Benutzerdefinierte API |
Info
Jedes Modell wird als separate Klasse im Verzeichnis ufo/llm implementiert und verwendet die Funktion chat_completion, die in der Klasse BaseService der Datei ufo/llm/base.py definiert ist, um Antworten vom Modell zu erhalten.