Unterstützte Modelle

UFO unterstützt eine Vielzahl von LLM-Modellen und APIs. Sie können das Modell und die API, die vom HOST_AGENT und APP_AGENT verwendet werden, in der Datei config.yaml anpassen. Darüber hinaus können Sie einen BACKUP_AGENT konfigurieren, um Anfragen zu bearbeiten, wenn der primäre Agent nicht antwortet.

Weitere Informationen zu den unterstützten Modellen und APIs finden Sie in den folgenden Abschnitten.

LLMs Dokumentation
OPENAI OpenAI API
Azure OpenAI (AOAI) Azure OpenAI API
Gemini Gemini API
Claude Claude API
QWEN QWEN API
Ollama Ollama API
Benutzerdefiniert Benutzerdefinierte API

Info

Jedes Modell wird als separate Klasse im Verzeichnis ufo/llm implementiert und verwendet die Funktion chat_completion, die in der Klasse BaseService der Datei ufo/llm/base.py definiert ist, um Antworten vom Modell zu erhalten.