Zum Inhalt springen

Fragengenerierung ❔

Entitätsbasierte Fragengenerierung

Die Methode zur Fragengenerierung kombiniert strukturierte Daten aus dem Wissensgraphen mit unstrukturierten Daten aus den Eingabedokumenten, um Kandidatenfragen zu spezifischen Entitäten zu generieren.

Methodik

Anhand einer Liste früherer Benutzerfragen nutzt die Methode zur Fragengenerierung denselben Kontextaufbauansatz, der bei der lokalen Suche verwendet wird, um relevante strukturierte und unstrukturierte Daten zu extrahieren und zu priorisieren, einschließlich Entitäten, Beziehungen, Kovariaten, Community-Berichten und rohen Textabschnitten. Diese Daten werden dann in eine einzige LLM-Prompt eingefügt, um Kandidaten-Folgefragen zu generieren, die den wichtigsten oder dringendsten Informationsgehalt oder die wichtigsten Themen in den Daten darstellen.

Konfiguration

Nachfolgend sind die wichtigsten Parameter der Klasse zur Fragengenerierung aufgeführt.

  • llm: OpenAI-Modellobjekt zur Generierung von Antworten.
  • context_builder: Ein Kontext-Builder-Objekt, das zur Aufbereitung von Kontextdaten aus Sammlungen von Wissensmodellobjekten verwendet wird, wobei dieselbe Kontext-Builder-Klasse wie bei der lokalen Suche verwendet wird.
  • system_prompt: Vorlage für die Prompt, die zur Generierung von Kandidatenfragen verwendet wird. Die Standardvorlage finden Sie unter system_prompt.
  • llm_params: Ein Wörterbuch mit zusätzlichen Parametern (z. B. Temperatur, max_tokens), die an den LLM-Aufruf übergeben werden sollen.
  • context_builder_params: Ein Wörterbuch mit zusätzlichen Parametern, die an das context_builder-Objekt beim Erstellen des Kontexts für den Prompt zur Fragengenerierung übergeben werden sollen.
  • callbacks: Optionale Callback-Funktionen, die zur Bereitstellung benutzerdefinierter Ereignisbehandlungsroutinen für LLM-Stream-Ereignisse verwendet werden können.

Anwendung

Ein Beispiel für die Funktion zur Fragengenerierung finden Sie im folgenden Notebook.