Prompt-Flow#
Prompt-Flow ist eine Sammlung von Entwicklungswerkzeugen, die darauf ausgelegt sind, den End-to-End-Entwicklungszyklus von LLM-basierten KI-Anwendungen zu optimieren, von der Ideenfindung, Prototypenentwicklung, Tests, Evaluierung bis hin zur produktiven Bereitstellung und Überwachung. Es erleichtert das Prompt-Engineering erheblich und ermöglicht Ihnen, LLM-Apps mit Produktionsqualität zu erstellen.
Mit Prompt-Flow können Sie
Flows erstellen, die LLMs, Prompts, Python-Code und andere Tools in einem ausführbaren Workflow miteinander verbinden.
Ihre Flows debuggen und iterieren, insbesondere die Nachverfolgung der Interaktion mit LLMs, mit Leichtigkeit.
Ihre Flows evaluieren, Qualitäts- und Leistungsmetriken mit größeren Datensätzen berechnen.
Das Testen und die Evaluierung in Ihr CI/CD-System integrieren, um die Qualität Ihres Flows sicherzustellen.
Ihre Flows auf der von Ihnen gewählten Serving-Plattform bereitstellen oder sie einfach in die Codebasis Ihrer App integrieren.
(Optional, aber sehr empfohlen) Mit Ihrem Team zusammenarbeiten, indem Sie die Cloud-Version von Prompt-Flow in Azure AI nutzen.
Willkommen, uns zu helfen, Prompt-Flow zu verbessern, indem Sie an Diskussionen teilnehmen, Issues eröffnen oder PRs einreichen.
Diese Dokumentationsseite enthält Anleitungen für Benutzer des Prompt-Flow SDK, CLI und der VSCode-Erweiterung.
🚀 Schnellstart
Schnellstart und End-to-End-Tutorials.
- Erste Schritte mit Prompt-Flow
- End-to-End-Entwicklungstutorial: Chatten mit PDF
- Mehr finden: Tutorials & Beispiele
📒 Anleitungen
Artikel führen den Benutzer durch die Erledigung einer bestimmten Aufgabe in Prompt-Flow.
- Nachverfolgung
- Einen Flow entwickeln
- Einen Flow ausführen und evaluieren
- Einen Flow bereitstellen
📑 Konzepte
Einführung in die Schlüsselkonzepte von Prompt-Flow.
- Flows
- Tools
- Verbindungen
- Designprinzipien
🔍 Referenz
Die Referenz bietet technische Informationen zur Prompt-Flow-API.
- Referenz zur Befehlszeilenschnittstelle: pf
- Referenz zur Python-Bibliothek: promptflow
- Tool-Referenz: LLM-Tool, Python-Tool, Prompt-Tool
- Änderungsprotokoll: Änderungsprotokoll