LLM Vision#

Einleitung#

Das LLM Vision Tool von Promptflow ermöglicht es Ihnen, das GPT-4 Turbo von AzureOpenAI oder das GPT-4 mit Vision von OpenAI zu nutzen, um Bilder zu analysieren und textbasierte Antworten auf Fragen dazu zu geben.

Voraussetzungen#

Erstellen Sie OpenAI- oder Azure-OpenAI-Ressourcen

  • OpenAI

    Registrieren Sie sich für ein Konto OpenAI-Website

    Melden Sie sich an und finden Sie Ihren persönlichen API-Schlüssel

  • Azure OpenAI (AOAI)

    Azure OpenAI-Ressourcen mit Anleitung erstellen

    Navigieren Sie zu Azure OpenAI Studio und melden Sie sich mit den Anmeldeinformationen an, die mit Ihrer Azure OpenAI-Ressource verknüpft sind. Wählen Sie während oder nach dem Anmeldevorgang das entsprechende Verzeichnis, die Azure-Abonnement und die Azure OpenAI-Ressource aus.

    Wählen Sie unter Verwaltung "Deployments" (Bereitstellungen) aus und erstellen Sie ein GPT-4 Turbo mit Vision Deployment, indem Sie den Modellnamen gpt-4 und die Modellversion vision-preview auswählen.

Verbindungen#

Verbindungen zu bereitgestellten Ressourcen in Promptflow einrichten.

Typ

Name

API-SCHLÜSSEL

API-Typ

API-Version

OpenAI

Erforderlich

Erforderlich

-

-

AzureOpenAI

Erforderlich

Erforderlich

Erforderlich

Erforderlich

Eingaben#

Name

Typ

Beschreibung

Erforderlich

modell, deployment_name

string

das zu verwendende Sprachmodell

Ja

prompt

string

Der Text-Prompt, den das Sprachmodell zur Generierung seiner Antwort verwendet.

Ja

max_tokens

integer

die maximale Anzahl von Tokens, die in der Antwort generiert werden sollen. Standard ist 512.

Nein

temperature

float

die Zufälligkeit des generierten Textes. Standard ist 1.

Nein

stop

Liste

die Stoppsequenz für den generierten Text. Standard ist null.

Nein

top_p

float

die Wahrscheinlichkeit, die oberste Wahl aus den generierten Tokens zu verwenden. Standard ist 1.

Nein

presence_penalty

float

Wert, der das Verhalten des Modells in Bezug auf die Wiederholung von Phrasen steuert. Standard ist 0.

Nein

frequency_penalty

float

Wert, der das Verhalten des Modells in Bezug auf die Generierung seltener Phrasen steuert. Standard ist 0.

Nein

Ausgaben#

Rückgabetyp

Beschreibung

string

Der Text einer Antwort aus einer Konversation