Zum Inhalt springen

Standard-Konfigurationsmodus (mit YAML/JSON)

Der Standard-Konfigurationsmodus kann durch die Verwendung einer Datei settings.yml oder settings.json im Stammverzeichnis des Datenprojekts konfiguriert werden. Wenn neben dieser Konfigurationsdatei eine Datei .env vorhanden ist, wird diese geladen und die darin definierten Umgebungsvariablen stehen für Ersetzungen von Tokens in Ihrem Konfigurationsdokument über die ${ENV_VAR}-Syntax zur Verfügung. Wir initialisieren standardmäßig mit YML in graphrag init, aber Sie können bei Bedarf die entsprechende JSON-Form verwenden.

Viele dieser Konfigurationswerte haben Standardwerte. Anstatt sie hier zu wiederholen, verweisen Sie bitte direkt auf die Konstanten im Code.

Zum Beispiel

# .env
GRAPHRAG_API_KEY=some_api_key

# settings.yml
llm: 
  api_key: ${GRAPHRAG_API_KEY}

Konfigurationsabschnitte

Einrichtung des Sprachmodells

models

Dies ist ein Dictionary mit Modellkonfigurationen. Der Schlüssel des Dictionaries wird verwendet, um diese Konfiguration an anderer Stelle zu referenzieren, wenn eine Modellinstanz gewünscht wird. Auf diese Weise können Sie so viele verschiedene Modelle wie nötig angeben und diese in den Workflow-Schritten unterschiedlich referenzieren.

Zum Beispiel

models:
  default_chat_model:
    api_key: ${GRAPHRAG_API_KEY}
    type: openai_chat
    model: gpt-4o
    model_supports_json: true
  default_embedding_model:
    api_key: ${GRAPHRAG_API_KEY}
    type: openai_embedding
    model: text-embedding-ada-002

Felder

  • api_key str - Der zu verwendende OpenAI API-Schlüssel.
  • auth_type api_key|azure_managed_identity - Gibt an, wie Sie Anfragen authentifizieren möchten.
  • type chat|embedding|openai_chat|azure_openai_chat|openai_embedding|azure_openai_embedding|mock_chat|mock_embeddings - Der Typ des zu verwendenden LLM.
  • model_provider str|None - Der zu verwendende Modell-Provider, z. B. openai, azure, anthropic usw. Erforderlich, wenn type == chat|embedding. Wenn type == chat|embedding, wird im Hintergrund LiteLLM verwendet, das die Unterstützung für über 100 Modelle bietet. Grundlegende Verwendung von LiteLLM für Details zur Aufrufung von Modellen (Der model_provider ist der Teil vor dem /, während das model der Teil nach dem / ist). Sprachauswahl für weitere Details und Beispiele zur Verwendung von LiteLLM.
  • model str - Der Modellname.
  • encoding_model str - Das zu verwendende Textcodierungsmodell. Standardmäßig wird das mit dem Sprachmodell übereinstimmende Codierungsmodell verwendet (d. h. es wird von tiktoken abgerufen, wenn es nicht gesetzt ist).
  • api_base str - Die zu verwendende API-Basis-URL.
  • api_version str - Die API-Version.
  • deployment_name str - Der zu verwendende Deployment-Name (Azure).
  • organization str - Die Organisation des Clients.
  • proxy str - Die zu verwendende Proxy-URL.
  • audience str - (Nur Azure OpenAI) Die URI der Ziel-Azure-Ressource/des Dienstes, für den ein Managed Identity-Token angefordert wird. Wird verwendet, wenn api_key nicht definiert ist. Standard=https://cognitiveservices.azure.com/.default
  • model_supports_json bool - Ob das Modell die JSON-Modus-Ausgabe unterstützt.
  • request_timeout float - Das Timeout pro Anfrage.
  • tokens_per_minute int - Legt eine Leaky-Bucket-Drosselung für Tokens pro Minute fest.
  • requests_per_minute int - Legt eine Leaky-Bucket-Drosselung für Anfragen pro Minute fest.
  • retry_strategy str - Wiederholungsstrategie, die verwendet werden soll. "native" ist der Standard und verwendet die im OpenAI SDK integrierte Strategie. Andere zulässige Werte sind "exponential_backoff", "random_wait" und "incremental_wait".
  • max_retries int - Die maximale Anzahl von Wiederholungsversuchen.
  • max_retry_wait float - Die maximale Backoff-Zeit.
  • concurrent_requests int - Die Anzahl der gleichzeitig zulässigen offenen Anfragen.
  • async_mode asyncio|threaded - Der zu verwendende asynchrone Modus. Entweder asyncio oder threaded.
  • responses list[str] - Wenn dieser Modelltyp ein Mock ist, ist dies eine Liste von Antwortzeichenfolgen, die zurückgegeben werden sollen.
  • n int - Die Anzahl der zu generierenden Completions.
  • max_tokens int - Die maximale Anzahl von Ausgabetokens. Nicht gültig für O-Serien-Modelle.
  • temperature float - Die zu verwendende Temperatur. Nicht gültig für O-Serien-Modelle.
  • top_p float - Der zu verwendende Top-p-Wert. Nicht gültig für O-Serien-Modelle.
  • frequency_penalty float - Frequenzstrafe für die Token-Generierung. Nicht gültig für O-Serien-Modelle.
  • presence_penalty float - Frequenzstrafe für die Token-Generierung. Nicht gültig für O-Serien-Modelle.
  • max_completion_tokens int - Maximale Anzahl von Tokens, die für die Chat-Vervollständigung verbraucht werden sollen. Muss groß genug sein, um eine unbekannte Menge für die "Argumentation" durch das Modell einzuschließen. Nur für O-Serien-Modelle.
  • reasoning_effort low|medium|high - Ausmaß des "Gedankens", den das Modell für die Argumentation einer Antwort aufwenden soll. Nur für O-Serien-Modelle.

Eingabedateien und Chunking

input

Unsere Pipeline kann .csv-, .txt- oder .json-Daten von einem Eingabestandort aufnehmen. Weitere Details und Beispiele finden Sie auf der Eingabeseite.

Felder

  • storage StorageConfig
  • type file|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=file
  • base_dir str - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.
  • connection_string str - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.
  • container_name str - (Nur blob/cosmosdb) Der Azure Storage-Containername.
  • storage_account_blob_url str - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.
  • cosmosdb_account_blob_url str - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.
  • file_type text|csv|json - Der zu ladende Typ der Eingabedaten. Standard ist text
  • encoding str - Die Codierung der Eingabedatei. Standard ist utf-8
  • file_pattern str - Ein Regex zum Abgleichen von Eingabedateien. Standard ist .*\.csv$, .*\.txt$ oder .*\.json$ je nach angegebenem file_type, kann aber bei Bedarf angepasst werden.
  • file_filter dict - Schlüssel/Wert-Paare zum Filtern. Standard ist None.
  • text_column str - (Nur CSV/JSON) Der Name der Textspalte. Wenn nicht gesetzt, erwarten wir eine Spalte namens text.
  • title_column str - (Nur CSV/JSON) Der Name der Titelspalte, der Dateiname wird verwendet, wenn nicht gesetzt.
  • metadata list[str] - (Nur CSV/JSON) Die zusätzlichen Dokumentattribute-Felder, die beibehalten werden sollen.

chunks

Diese Einstellungen konfigurieren, wie wir Dokumente in Text-Chunks parsen. Dies ist notwendig, da sehr große Dokumente möglicherweise nicht in ein einzelnes Kontextfenster passen und die Genauigkeit der Graphenextraktion moduliert werden kann. Beachten Sie auch die Einstellung metadata in der Konfiguration des Eingabedokuments, die Metadaten des Dokuments in jeden Chunk repliziert.

Felder

  • size int - Die maximale Chunk-Größe in Tokens.
  • overlap int - Die Chunk-Überlappung in Tokens.
  • group_by_columns list[str] - Gruppiert Dokumente anhand dieser Felder vor dem Chunking.
  • strategy str[tokens|sentences] - Wie der Text gechunked werden soll.
  • encoding_model str - Das zu verwendende Textcodierungsmodell zum Aufteilen an Token-Grenzen.
  • prepend_metadata bool - Bestimmt, ob Metadatenwerte am Anfang jedes Chunks hinzugefügt werden sollen. Standard=False.
  • chunk_size_includes_metadata bool - Gibt an, ob die Berechnung der Chunk-Größe Metadaten-Tokens einschließen soll. Standard=False.

Ausgaben und Speicher

output

Dieser Abschnitt steuert den vom Pipeline verwendeten Speichermechanismus für den Export von Ausgabetabellen.

Felder

  • type file|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=file
  • base_dir str - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.
  • connection_string str - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.
  • container_name str - (Nur blob/cosmosdb) Der Azure Storage-Containername.
  • storage_account_blob_url str - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.
  • cosmosdb_account_blob_url str - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.

update_index_output

Dieser Abschnitt definiert einen sekundären Speicherort für die inkrementelle Indizierung, um Ihre ursprünglichen Ausgaben zu erhalten.

Felder

  • type file|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=file
  • base_dir str - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.
  • connection_string str - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.
  • container_name str - (Nur blob/cosmosdb) Der Azure Storage-Containername.
  • storage_account_blob_url str - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.
  • cosmosdb_account_blob_url str - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.

cache

Dieser Abschnitt steuert den von der Pipeline verwendeten Cache-Mechanismus. Dieser wird verwendet, um LLM-Aufrufergebnisse für eine schnellere Leistung beim erneuten Ausführen des Indizierungsprozesses zu cachen.

Felder

  • type file|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=file
  • base_dir str - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.
  • connection_string str - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.
  • container_name str - (Nur blob/cosmosdb) Der Azure Storage-Containername.
  • storage_account_blob_url str - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.
  • cosmosdb_account_blob_url str - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.

reporting

Dieser Abschnitt steuert den von der Pipeline verwendeten Berichtsmechanismus für gängige Ereignisse und Fehlermeldungen. Standardmäßig werden Berichte in einer Datei im Ausgabeverzeichnis geschrieben. Sie können Berichte jedoch auch in einem Azure Blob Storage-Container speichern.

Felder

  • type file|blob - Der zu verwendende Berichtstyp. Standard=file
  • base_dir str - Das Basisverzeichnis, in das Berichte geschrieben werden sollen, relativ zum Stammverzeichnis.
  • connection_string str - (Nur blob) Die Azure Storage-Verbindungszeichenfolge.
  • container_name str - (Nur blob) Der Azure Storage-Containername.
  • storage_account_blob_url str - Die zu verwendende Azure Storage-Konto-Blob-URL.

vector_store

Wo alle Vektoren für das System platziert werden. Standardmäßig für lancedb konfiguriert. Dies ist ein Dictionary, dessen Schlüssel zur Identifizierung einzelner Speicherparameter verwendet wird (z. B. für Texteinbettungen).

Felder

  • type lancedb|azure_ai_search|cosmosdb - Typ des Vektorspeichers. Standard=lancedb
  • db_uri str (nur für lancedb) - Die Datenbank-URI. Standard=storage.base_dir/lancedb
  • url str (nur für AI Search) - AI Search Endpunkt
  • api_key str (optional - nur für AI Search) - Der zu verwendende AI Search API-Schlüssel.
  • audience str (nur für AI Search) - Zielgruppe für Managed Identity-Token, wenn die Authentifizierung mit Managed Identity verwendet wird.
  • container_name str - Der Name eines Vektors-Containers. Dies speichert alle Indizes (Tabellen) für eine bestimmte Datensatzeingabe. Standard=default
  • database_name str - (nur cosmosdb) Name der Datenbank.
  • overwrite bool (nur zur Erstellungszeit des Index verwendet) - Überschreibt die Sammlung, wenn sie existiert. Standard=True

Workflow-Konfigurationen

Diese Einstellungen steuern jeden einzelnen Workflow während seiner Ausführung.

workflows

list[str] - Dies ist eine Liste von Workflow-Namen, die in Reihenfolge ausgeführt werden sollen. GraphRAG verfügt über integrierte Pipelines zur Konfiguration dieser Liste, aber Sie können genau und nur das ausführen, was Sie möchten, indem Sie die Liste hier angeben. Nützlich, wenn Sie einen Teil der Verarbeitung selbst durchgeführt haben.

embed_text

Standardmäßig exportiert der GraphRAG Indexer nur die für unsere Abfragemethoden erforderlichen Embeddings. Das Modell verfügt jedoch über Embeddings für alle Klartextfelder, und diese können durch Festlegen der Felder target und names angepasst werden.

Unterstützte Embedding-Namen sind

  • text_unit.text
  • document.text
  • entity.title
  • entity.description
  • relationship.description
  • community.title
  • community.summary
  • community.full_content

Felder

  • model_id str - Name der zu verwendenden Modell-Definition für Texteinbettungen.
  • vector_store_id str - Name der zu verwendenden Vektorspeicher-Definition.
  • batch_size int - Die zu verwendende maximale Batch-Größe.
  • batch_max_tokens int - Die maximale Anzahl von Tokens pro Batch.
  • names list[str] - Liste der auszuführenden Embedding-Namen (muss in der unterstützten Liste enthalten sein).

extract_graph

Feinabstimmung des sprachmodellbasierten Graphenextraktionsprozesses.

Felder

  • model_id str - Name der zu verwendenden Modell-Definition für API-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • entity_types list[str] - Die zu identifizierenden Entitätstypen.
  • max_gleanings int - Die maximale Anzahl der zu verwendenden Gleaning-Zyklen.

summarize_descriptions

Felder

  • model_id str - Name der zu verwendenden Modell-Definition für API-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • max_length int - Die maximale Anzahl von Ausgabetokens pro Zusammenfassung.
  • max_input_length int - Die maximale Anzahl von Tokens, die für die Zusammenfassung gesammelt werden sollen (dies begrenzt, wie viele Beschreibungen Sie für eine bestimmte Entität oder Beziehung zur Zusammenfassung senden).

extract_graph_nlp

Definiert Einstellungen für NLP-basierte Graphenextraktionsmethoden.

Felder

  • normalize_edge_weights bool - Ob die Kantengewichte während der Graphenkonstruktion normalisiert werden sollen. Standard=True.
  • text_analyzer dict - Parameter für das NLP-Modell.
  • extractor_type regex_english|syntactic_parser|cfg - Standard=regex_english.
  • model_name str - Name des NLP-Modells (für SpaCy-basierte Modelle)
  • max_word_length int - Längstes zulässiges Wort. Standard=15.
  • word_delimiter str - Trennzeichen zum Aufteilen von Wörtern. Standard=.
  • include_named_entities bool - Ob benannte Entitäten in Nominalphrasen enthalten werden sollen. Standard=True.
  • exclude_nouns list[str] | None - Liste der auszuschließenden Nomen. Wenn None, verwenden wir eine interne Stoppwortliste.
  • exclude_entity_tags list[str] - Liste der zu ignorierenden Entitätstags.
  • exclude_pos_tags list[str] - Liste der zu ignorierenden Wortart-Tags.
  • noun_phrase_tags list[str] - Liste der zu ignorierenden Nominalphrasen-Tags.
  • noun_phrase_grammars dict[str, str] - Nominalphrasen-Grammatiken für das Modell (nur cfg).

prune_graph

Parameter für die manuelle Graphbereinigung. Dies kann verwendet werden, um die Modularität Ihrer Graphcluster zu optimieren, indem übermäßig verbundene oder seltene Knoten entfernt werden.

Felder

  • min_node_freq int - Die minimale zulässige Knotenhäufigkeit.
  • max_node_freq_std float | None - Die maximale Standardabweichung der Knotenhäufigkeit, die zulässig ist.
  • min_node_degree int - Der minimale zulässige Knotengrad.
  • max_node_degree_std float | None - Die maximale Standardabweichung des Knotengrads, die zulässig ist.
  • min_edge_weight_pct float - Das minimale zulässige Kanten-Gewichts-Perzentil.
  • remove_ego_nodes bool - Ego-Knoten entfernen.
  • lcc_only bool - Nur die größte zusammenhängende Komponente verwenden.

cluster_graph

Dies sind die Einstellungen für die hierarchische Leiden-Clusterbildung des Graphen zur Erstellung von Gemeinschaften.

Felder

  • max_cluster_size int - Die maximale zu exportierende Clustergröße.
  • use_lcc bool - Ob nur die größte zusammenhängende Komponente verwendet werden soll.
  • seed int - Ein Zufalls-Seed, der angegeben werden kann, wenn konsistente Ergebnisse von Lauf zu Lauf gewünscht werden. Wir stellen einen Standardwert bereit, um die Stabilität der Clusterbildung zu gewährleisten.

extract_claims

Felder

  • enabled bool - Ob die Extraktion von Behauptungen aktiviert werden soll. Standardmäßig deaktiviert, da Behauptungs-Prompts eine Benutzeranpassung erfordern.
  • model_id str - Name der zu verwendenden Modell-Definition für API-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • description str - Beschreibt die Arten von Behauptungen, die wir extrahieren möchten.
  • max_gleanings int - Die maximale Anzahl der zu verwendenden Gleaning-Zyklen.

community_reports

Felder

  • model_id str - Name der zu verwendenden Modell-Definition für API-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • max_length int - Die maximale Anzahl von Ausgabetokens pro Bericht.
  • max_input_length int - Die maximale Anzahl von Eingabetokens, die beim Erstellen von Berichten verwendet werden sollen.

embed_graph

Wir verwenden node2vec zur Einbettung des Graphen. Dies wird hauptsächlich zur Visualisierung verwendet, daher ist es standardmäßig nicht aktiviert.

Felder

  • enabled bool - Ob Graphen-Embeddings aktiviert werden sollen.
  • dimensions int - Anzahl der zu erzeugenden Vektor-Dimensionen.
  • num_walks int - Die Anzahl der Spaziergänge von node2vec.
  • walk_length int - Die Länge des Spaziergangs von node2vec.
  • window_size int - Die Fenstergröße von node2vec.
  • iterations int - Die Anzahl der Iterationen von node2vec.
  • random_seed int - Der Zufalls-Seed von node2vec.
  • strategy dict - Überschreibt die Strategie für Graphen-Embeddings vollständig.

umap

Gibt an, ob wir eine UMAP-Dimensionsreduktion durchführen sollen. Dies wird verwendet, um jedem Graphenknoten eine x/y-Koordinate für die Visualisierung bereitzustellen. Wenn dies nicht aktiviert ist, erhalten Knoten eine 0/0 x/y-Koordinate. Wenn dies aktiviert ist, müssen Sie auch das Graphen-Embedding aktivieren.

Felder

  • enabled bool - Ob UMAP-Layouts aktiviert werden sollen.

snapshots

Felder

  • embeddings bool - Embeddings-Snapshots nach Parquet exportieren.
  • graphml bool - Graph-Snapshots nach GraphML exportieren.

Abfrage

Felder

  • chat_model_id str - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.
  • embedding_model_id str - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • text_unit_prop float - Der Anteil der Texteinheiten.
  • community_prop float - Der Anteil der Gemeinschaften.
  • conversation_history_max_turns int - Die maximale Anzahl von Umdrehungen im Konversationsverlauf.
  • top_k_entities int - Die Top-k zugeordneten Entitäten.
  • top_k_relationships int - Die Top-k zugeordneten Beziehungen.
  • max_context_tokens int - Die maximale Anzahl von Tokens, die zum Erstellen des Anfragekontexts verwendet werden sollen.

Felder

  • chat_model_id str - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.
  • map_prompt str - Die zu verwendende Mapper-Prompt-Datei.
  • reduce_prompt str - Die zu verwendende Reducer-Prompt-Datei.
  • knowledge_prompt str - Die zu verwendende Knowledge-Prompt-Datei.
  • map_prompt str | None - Der zu verwendende Mapper-Prompt für die globale Suche.
  • reduce_prompt str | None - Der zu verwendende Reducer für die globale Suche.
  • knowledge_prompt str | None - Der allgemeine Prompt für die globale Suche.
  • max_context_tokens int - Die maximale Kontextgröße, die in Tokens erstellt werden soll.
  • data_max_tokens int - Die maximale Anzahl von Tokens, die zum Erstellen der endgültigen Antwort aus den reduzierten Antworten verwendet werden sollen.
  • map_max_length int - Die maximale Länge, die für Mapper-Antworten in Wörtern angefordert werden soll.
  • reduce_max_length int - Die maximale Länge, die für Reducer-Antworten in Wörtern angefordert werden soll.
  • dynamic_search_threshold int - Schwellenwert für die Bewertung zur Einbeziehung eines Community-Berichts.
  • dynamic_search_keep_parent bool - Übergeordnetes Community beibehalten, wenn eine der Kind-Gemeinschaften relevant ist.
  • dynamic_search_num_repeats int - Anzahl der Bewertungen desselben Community-Berichts.
  • dynamic_search_use_summary bool - Community-Zusammenfassung anstelle von full_context verwenden.
  • dynamic_search_max_level int - Die maximale Ebene der Community-Hierarchie, die berücksichtigt werden soll, wenn keine der verarbeiteten Gemeinschaften relevant ist.

Felder

  • chat_model_id str - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.
  • embedding_model_id str - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • reduce_prompt str - Die zu verwendende Reducer-Prompt-Datei.
  • data_max_tokens int - Die maximalen Tokens des Daten-LLM.
  • reduce_max_tokens int - Die maximalen Tokens für die Reduce-Phase. Nur verwenden, wenn kein O-Serien-Modell.
  • reduce_max_completion_tokens int - Die maximalen Tokens für die Reduce-Phase. Nur für O-Serien-Modelle verwenden.
  • concurrency int - Die Anzahl der gleichzeitigen Anfragen.
  • drift_k_followups int - Die Anzahl der abzurufenden globalen Top-Ergebnisse.
  • primer_folds int - Die Anzahl der Folds für das Search Priming.
  • primer_llm_max_tokens int - Die maximale Anzahl von Tokens für das LLM im Primer.
  • n_depth int - Die Anzahl der zu durchlaufenden Drift-Suchschritte.
  • local_search_text_unit_prop float - Der Anteil der Suche, der für Texteinheiten bestimmt ist.
  • local_search_community_prop float - Der Anteil der Suche, der für Community-Eigenschaften bestimmt ist.
  • local_search_top_k_mapped_entities int - Die Anzahl der Top-K-Entitäten, die während der lokalen Suche zugeordnet werden sollen.
  • local_search_top_k_relationships int - Die Anzahl der Top-K-Beziehungen, die während der lokalen Suche zugeordnet werden sollen.
  • local_search_max_data_tokens int - Die maximale Kontextgröße in Tokens für die lokale Suche.
  • local_search_temperature float - Die Temperatur, die für die Token-Generierung bei der lokalen Suche verwendet werden soll.
  • local_search_top_p float - Der Top-p-Wert, der für die Token-Generierung bei der lokalen Suche verwendet werden soll.
  • local_search_n int - Die Anzahl der Completions, die bei der lokalen Suche generiert werden sollen.
  • local_search_llm_max_gen_tokens int - Die maximale Anzahl generierter Tokens für das LLM bei der lokalen Suche. Nur verwenden, wenn kein O-Serien-Modell.
  • local_search_llm_max_gen_completion_tokens int - Die maximale Anzahl generierter Tokens für das LLM bei der lokalen Suche. Nur für O-Serien-Modelle verwenden.

Felder

  • chat_model_id str - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.
  • embedding_model_id str - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.
  • prompt str - Die zu verwendende Prompt-Datei.
  • k int | None - Anzahl der aus dem Vektorspeicher abzurufenden Texteinheiten für den Kontextaufbau.