LLM Vision#
Einleitung#
Das LLM Vision Tool von Promptflow ermöglicht es Ihnen, das GPT-4 Turbo von AzureOpenAI oder das GPT-4 mit Vision von OpenAI zu nutzen, um Bilder zu analysieren und textbasierte Antworten auf Fragen dazu zu geben.
Voraussetzungen#
Erstellen Sie OpenAI- oder Azure-OpenAI-Ressourcen
OpenAI
Registrieren Sie sich für ein Konto OpenAI-Website
Melden Sie sich an und finden Sie Ihren persönlichen API-Schlüssel
Azure OpenAI (AOAI)
Azure OpenAI-Ressourcen mit Anleitung erstellen
Navigieren Sie zu Azure OpenAI Studio und melden Sie sich mit den Anmeldeinformationen an, die mit Ihrer Azure OpenAI-Ressource verknüpft sind. Wählen Sie während oder nach dem Anmeldevorgang das entsprechende Verzeichnis, die Azure-Abonnement und die Azure OpenAI-Ressource aus.
Wählen Sie unter Verwaltung "Deployments" (Bereitstellungen) aus und erstellen Sie ein GPT-4 Turbo mit Vision Deployment, indem Sie den Modellnamen
gpt-4und die Modellversionvision-previewauswählen.
Verbindungen#
Verbindungen zu bereitgestellten Ressourcen in Promptflow einrichten.
Typ |
Name |
API-SCHLÜSSEL |
API-Typ |
API-Version |
|---|---|---|---|---|
OpenAI |
Erforderlich |
Erforderlich |
- |
- |
AzureOpenAI |
Erforderlich |
Erforderlich |
Erforderlich |
Erforderlich |
Eingaben#
Name |
Typ |
Beschreibung |
Erforderlich |
|---|---|---|---|
modell, deployment_name |
string |
das zu verwendende Sprachmodell |
Ja |
prompt |
string |
Der Text-Prompt, den das Sprachmodell zur Generierung seiner Antwort verwendet. |
Ja |
max_tokens |
integer |
die maximale Anzahl von Tokens, die in der Antwort generiert werden sollen. Standard ist 512. |
Nein |
temperature |
float |
die Zufälligkeit des generierten Textes. Standard ist 1. |
Nein |
stop |
Liste |
die Stoppsequenz für den generierten Text. Standard ist null. |
Nein |
top_p |
float |
die Wahrscheinlichkeit, die oberste Wahl aus den generierten Tokens zu verwenden. Standard ist 1. |
Nein |
presence_penalty |
float |
Wert, der das Verhalten des Modells in Bezug auf die Wiederholung von Phrasen steuert. Standard ist 0. |
Nein |
frequency_penalty |
float |
Wert, der das Verhalten des Modells in Bezug auf die Generierung seltener Phrasen steuert. Standard ist 0. |
Nein |
Ausgaben#
Rückgabetyp |
Beschreibung |
|---|---|
string |
Der Text einer Antwort aus einer Konversation |