Standard-Konfigurationsmodus (mit YAML/JSON)
Der Standard-Konfigurationsmodus kann durch die Verwendung einer Datei settings.yml oder settings.json im Stammverzeichnis des Datenprojekts konfiguriert werden. Wenn neben dieser Konfigurationsdatei eine Datei .env vorhanden ist, wird diese geladen und die darin definierten Umgebungsvariablen stehen für Ersetzungen von Tokens in Ihrem Konfigurationsdokument über die ${ENV_VAR}-Syntax zur Verfügung. Wir initialisieren standardmäßig mit YML in graphrag init, aber Sie können bei Bedarf die entsprechende JSON-Form verwenden.
Viele dieser Konfigurationswerte haben Standardwerte. Anstatt sie hier zu wiederholen, verweisen Sie bitte direkt auf die Konstanten im Code.
Zum Beispiel
Konfigurationsabschnitte
Einrichtung des Sprachmodells
models
Dies ist ein Dictionary mit Modellkonfigurationen. Der Schlüssel des Dictionaries wird verwendet, um diese Konfiguration an anderer Stelle zu referenzieren, wenn eine Modellinstanz gewünscht wird. Auf diese Weise können Sie so viele verschiedene Modelle wie nötig angeben und diese in den Workflow-Schritten unterschiedlich referenzieren.
Zum Beispiel
models:
default_chat_model:
api_key: ${GRAPHRAG_API_KEY}
type: openai_chat
model: gpt-4o
model_supports_json: true
default_embedding_model:
api_key: ${GRAPHRAG_API_KEY}
type: openai_embedding
model: text-embedding-ada-002
Felder
api_keystr - Der zu verwendende OpenAI API-Schlüssel.auth_typeapi_key|azure_managed_identity - Gibt an, wie Sie Anfragen authentifizieren möchten.typechat|embedding|openai_chat|azure_openai_chat|openai_embedding|azure_openai_embedding|mock_chat|mock_embeddings - Der Typ des zu verwendenden LLM.model_providerstr|None - Der zu verwendende Modell-Provider, z. B. openai, azure, anthropic usw. Erforderlich, wenntype == chat|embedding. Wenntype == chat|embedding, wird im Hintergrund LiteLLM verwendet, das die Unterstützung für über 100 Modelle bietet. Grundlegende Verwendung von LiteLLM für Details zur Aufrufung von Modellen (Dermodel_providerist der Teil vor dem/, während dasmodelder Teil nach dem/ist). Sprachauswahl für weitere Details und Beispiele zur Verwendung von LiteLLM.modelstr - Der Modellname.encoding_modelstr - Das zu verwendende Textcodierungsmodell. Standardmäßig wird das mit dem Sprachmodell übereinstimmende Codierungsmodell verwendet (d. h. es wird von tiktoken abgerufen, wenn es nicht gesetzt ist).api_basestr - Die zu verwendende API-Basis-URL.api_versionstr - Die API-Version.deployment_namestr - Der zu verwendende Deployment-Name (Azure).organizationstr - Die Organisation des Clients.proxystr - Die zu verwendende Proxy-URL.audiencestr - (Nur Azure OpenAI) Die URI der Ziel-Azure-Ressource/des Dienstes, für den ein Managed Identity-Token angefordert wird. Wird verwendet, wennapi_keynicht definiert ist. Standard=https://cognitiveservices.azure.com/.defaultmodel_supports_jsonbool - Ob das Modell die JSON-Modus-Ausgabe unterstützt.request_timeoutfloat - Das Timeout pro Anfrage.tokens_per_minuteint - Legt eine Leaky-Bucket-Drosselung für Tokens pro Minute fest.requests_per_minuteint - Legt eine Leaky-Bucket-Drosselung für Anfragen pro Minute fest.retry_strategystr - Wiederholungsstrategie, die verwendet werden soll. "native" ist der Standard und verwendet die im OpenAI SDK integrierte Strategie. Andere zulässige Werte sind "exponential_backoff", "random_wait" und "incremental_wait".max_retriesint - Die maximale Anzahl von Wiederholungsversuchen.max_retry_waitfloat - Die maximale Backoff-Zeit.concurrent_requestsint - Die Anzahl der gleichzeitig zulässigen offenen Anfragen.async_modeasyncio|threaded - Der zu verwendende asynchrone Modus. Entwederasynciooderthreaded.responseslist[str] - Wenn dieser Modelltyp ein Mock ist, ist dies eine Liste von Antwortzeichenfolgen, die zurückgegeben werden sollen.nint - Die Anzahl der zu generierenden Completions.max_tokensint - Die maximale Anzahl von Ausgabetokens. Nicht gültig für O-Serien-Modelle.temperaturefloat - Die zu verwendende Temperatur. Nicht gültig für O-Serien-Modelle.top_pfloat - Der zu verwendende Top-p-Wert. Nicht gültig für O-Serien-Modelle.frequency_penaltyfloat - Frequenzstrafe für die Token-Generierung. Nicht gültig für O-Serien-Modelle.presence_penaltyfloat - Frequenzstrafe für die Token-Generierung. Nicht gültig für O-Serien-Modelle.max_completion_tokensint - Maximale Anzahl von Tokens, die für die Chat-Vervollständigung verbraucht werden sollen. Muss groß genug sein, um eine unbekannte Menge für die "Argumentation" durch das Modell einzuschließen. Nur für O-Serien-Modelle.reasoning_effortlow|medium|high - Ausmaß des "Gedankens", den das Modell für die Argumentation einer Antwort aufwenden soll. Nur für O-Serien-Modelle.
Eingabedateien und Chunking
input
Unsere Pipeline kann .csv-, .txt- oder .json-Daten von einem Eingabestandort aufnehmen. Weitere Details und Beispiele finden Sie auf der Eingabeseite.
Felder
storageStorageConfigtypefile|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=filebase_dirstr - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.connection_stringstr - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.container_namestr - (Nur blob/cosmosdb) Der Azure Storage-Containername.storage_account_blob_urlstr - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.cosmosdb_account_blob_urlstr - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.file_typetext|csv|json - Der zu ladende Typ der Eingabedaten. Standard isttextencodingstr - Die Codierung der Eingabedatei. Standard istutf-8file_patternstr - Ein Regex zum Abgleichen von Eingabedateien. Standard ist.*\.csv$,.*\.txt$oder.*\.json$je nach angegebenemfile_type, kann aber bei Bedarf angepasst werden.file_filterdict - Schlüssel/Wert-Paare zum Filtern. Standard ist None.text_columnstr - (Nur CSV/JSON) Der Name der Textspalte. Wenn nicht gesetzt, erwarten wir eine Spalte namenstext.title_columnstr - (Nur CSV/JSON) Der Name der Titelspalte, der Dateiname wird verwendet, wenn nicht gesetzt.metadatalist[str] - (Nur CSV/JSON) Die zusätzlichen Dokumentattribute-Felder, die beibehalten werden sollen.
chunks
Diese Einstellungen konfigurieren, wie wir Dokumente in Text-Chunks parsen. Dies ist notwendig, da sehr große Dokumente möglicherweise nicht in ein einzelnes Kontextfenster passen und die Genauigkeit der Graphenextraktion moduliert werden kann. Beachten Sie auch die Einstellung metadata in der Konfiguration des Eingabedokuments, die Metadaten des Dokuments in jeden Chunk repliziert.
Felder
sizeint - Die maximale Chunk-Größe in Tokens.overlapint - Die Chunk-Überlappung in Tokens.group_by_columnslist[str] - Gruppiert Dokumente anhand dieser Felder vor dem Chunking.strategystr[tokens|sentences] - Wie der Text gechunked werden soll.encoding_modelstr - Das zu verwendende Textcodierungsmodell zum Aufteilen an Token-Grenzen.prepend_metadatabool - Bestimmt, ob Metadatenwerte am Anfang jedes Chunks hinzugefügt werden sollen. Standard=False.chunk_size_includes_metadatabool - Gibt an, ob die Berechnung der Chunk-Größe Metadaten-Tokens einschließen soll. Standard=False.
Ausgaben und Speicher
output
Dieser Abschnitt steuert den vom Pipeline verwendeten Speichermechanismus für den Export von Ausgabetabellen.
Felder
typefile|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=filebase_dirstr - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.connection_stringstr - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.container_namestr - (Nur blob/cosmosdb) Der Azure Storage-Containername.storage_account_blob_urlstr - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.cosmosdb_account_blob_urlstr - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.
update_index_output
Dieser Abschnitt definiert einen sekundären Speicherort für die inkrementelle Indizierung, um Ihre ursprünglichen Ausgaben zu erhalten.
Felder
typefile|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=filebase_dirstr - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.connection_stringstr - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.container_namestr - (Nur blob/cosmosdb) Der Azure Storage-Containername.storage_account_blob_urlstr - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.cosmosdb_account_blob_urlstr - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.
cache
Dieser Abschnitt steuert den von der Pipeline verwendeten Cache-Mechanismus. Dieser wird verwendet, um LLM-Aufrufergebnisse für eine schnellere Leistung beim erneuten Ausführen des Indizierungsprozesses zu cachen.
Felder
typefile|memory|blob|cosmosdb - Der zu verwendende Speichertyp. Standard=filebase_dirstr - Das Basisverzeichnis, in das Ausgabeartefakte geschrieben werden sollen, relativ zum Stammverzeichnis.connection_stringstr - (Nur blob/cosmosdb) Die Azure Storage-Verbindungszeichenfolge.container_namestr - (Nur blob/cosmosdb) Der Azure Storage-Containername.storage_account_blob_urlstr - (Nur blob) Die Azure Storage-Konto-Blob-URL, die verwendet werden soll.cosmosdb_account_blob_urlstr - (Nur cosmosdb) Die CosmosDB-Konto-Blob-URL, die verwendet werden soll.
reporting
Dieser Abschnitt steuert den von der Pipeline verwendeten Berichtsmechanismus für gängige Ereignisse und Fehlermeldungen. Standardmäßig werden Berichte in einer Datei im Ausgabeverzeichnis geschrieben. Sie können Berichte jedoch auch in einem Azure Blob Storage-Container speichern.
Felder
typefile|blob - Der zu verwendende Berichtstyp. Standard=filebase_dirstr - Das Basisverzeichnis, in das Berichte geschrieben werden sollen, relativ zum Stammverzeichnis.connection_stringstr - (Nur blob) Die Azure Storage-Verbindungszeichenfolge.container_namestr - (Nur blob) Der Azure Storage-Containername.storage_account_blob_urlstr - Die zu verwendende Azure Storage-Konto-Blob-URL.
vector_store
Wo alle Vektoren für das System platziert werden. Standardmäßig für lancedb konfiguriert. Dies ist ein Dictionary, dessen Schlüssel zur Identifizierung einzelner Speicherparameter verwendet wird (z. B. für Texteinbettungen).
Felder
typelancedb|azure_ai_search|cosmosdb - Typ des Vektorspeichers. Standard=lancedbdb_uristr (nur für lancedb) - Die Datenbank-URI. Standard=storage.base_dir/lancedburlstr (nur für AI Search) - AI Search Endpunktapi_keystr (optional - nur für AI Search) - Der zu verwendende AI Search API-Schlüssel.audiencestr (nur für AI Search) - Zielgruppe für Managed Identity-Token, wenn die Authentifizierung mit Managed Identity verwendet wird.container_namestr - Der Name eines Vektors-Containers. Dies speichert alle Indizes (Tabellen) für eine bestimmte Datensatzeingabe. Standard=defaultdatabase_namestr - (nur cosmosdb) Name der Datenbank.overwritebool (nur zur Erstellungszeit des Index verwendet) - Überschreibt die Sammlung, wenn sie existiert. Standard=True
Workflow-Konfigurationen
Diese Einstellungen steuern jeden einzelnen Workflow während seiner Ausführung.
workflows
list[str] - Dies ist eine Liste von Workflow-Namen, die in Reihenfolge ausgeführt werden sollen. GraphRAG verfügt über integrierte Pipelines zur Konfiguration dieser Liste, aber Sie können genau und nur das ausführen, was Sie möchten, indem Sie die Liste hier angeben. Nützlich, wenn Sie einen Teil der Verarbeitung selbst durchgeführt haben.
embed_text
Standardmäßig exportiert der GraphRAG Indexer nur die für unsere Abfragemethoden erforderlichen Embeddings. Das Modell verfügt jedoch über Embeddings für alle Klartextfelder, und diese können durch Festlegen der Felder target und names angepasst werden.
Unterstützte Embedding-Namen sind
text_unit.textdocument.textentity.titleentity.descriptionrelationship.descriptioncommunity.titlecommunity.summarycommunity.full_content
Felder
model_idstr - Name der zu verwendenden Modell-Definition für Texteinbettungen.vector_store_idstr - Name der zu verwendenden Vektorspeicher-Definition.batch_sizeint - Die zu verwendende maximale Batch-Größe.batch_max_tokensint - Die maximale Anzahl von Tokens pro Batch.nameslist[str] - Liste der auszuführenden Embedding-Namen (muss in der unterstützten Liste enthalten sein).
extract_graph
Feinabstimmung des sprachmodellbasierten Graphenextraktionsprozesses.
Felder
model_idstr - Name der zu verwendenden Modell-Definition für API-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.entity_typeslist[str] - Die zu identifizierenden Entitätstypen.max_gleaningsint - Die maximale Anzahl der zu verwendenden Gleaning-Zyklen.
summarize_descriptions
Felder
model_idstr - Name der zu verwendenden Modell-Definition für API-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.max_lengthint - Die maximale Anzahl von Ausgabetokens pro Zusammenfassung.max_input_lengthint - Die maximale Anzahl von Tokens, die für die Zusammenfassung gesammelt werden sollen (dies begrenzt, wie viele Beschreibungen Sie für eine bestimmte Entität oder Beziehung zur Zusammenfassung senden).
extract_graph_nlp
Definiert Einstellungen für NLP-basierte Graphenextraktionsmethoden.
Felder
normalize_edge_weightsbool - Ob die Kantengewichte während der Graphenkonstruktion normalisiert werden sollen. Standard=True.text_analyzerdict - Parameter für das NLP-Modell.- extractor_type regex_english|syntactic_parser|cfg - Standard=
regex_english. - model_name str - Name des NLP-Modells (für SpaCy-basierte Modelle)
- max_word_length int - Längstes zulässiges Wort. Standard=
15. - word_delimiter str - Trennzeichen zum Aufteilen von Wörtern. Standard=
. - include_named_entities bool - Ob benannte Entitäten in Nominalphrasen enthalten werden sollen. Standard=
True. - exclude_nouns list[str] | None - Liste der auszuschließenden Nomen. Wenn
None, verwenden wir eine interne Stoppwortliste. - exclude_entity_tags list[str] - Liste der zu ignorierenden Entitätstags.
- exclude_pos_tags list[str] - Liste der zu ignorierenden Wortart-Tags.
- noun_phrase_tags list[str] - Liste der zu ignorierenden Nominalphrasen-Tags.
- noun_phrase_grammars dict[str, str] - Nominalphrasen-Grammatiken für das Modell (nur cfg).
prune_graph
Parameter für die manuelle Graphbereinigung. Dies kann verwendet werden, um die Modularität Ihrer Graphcluster zu optimieren, indem übermäßig verbundene oder seltene Knoten entfernt werden.
Felder
- min_node_freq int - Die minimale zulässige Knotenhäufigkeit.
- max_node_freq_std float | None - Die maximale Standardabweichung der Knotenhäufigkeit, die zulässig ist.
- min_node_degree int - Der minimale zulässige Knotengrad.
- max_node_degree_std float | None - Die maximale Standardabweichung des Knotengrads, die zulässig ist.
- min_edge_weight_pct float - Das minimale zulässige Kanten-Gewichts-Perzentil.
- remove_ego_nodes bool - Ego-Knoten entfernen.
- lcc_only bool - Nur die größte zusammenhängende Komponente verwenden.
cluster_graph
Dies sind die Einstellungen für die hierarchische Leiden-Clusterbildung des Graphen zur Erstellung von Gemeinschaften.
Felder
max_cluster_sizeint - Die maximale zu exportierende Clustergröße.use_lccbool - Ob nur die größte zusammenhängende Komponente verwendet werden soll.seedint - Ein Zufalls-Seed, der angegeben werden kann, wenn konsistente Ergebnisse von Lauf zu Lauf gewünscht werden. Wir stellen einen Standardwert bereit, um die Stabilität der Clusterbildung zu gewährleisten.
extract_claims
Felder
enabledbool - Ob die Extraktion von Behauptungen aktiviert werden soll. Standardmäßig deaktiviert, da Behauptungs-Prompts eine Benutzeranpassung erfordern.model_idstr - Name der zu verwendenden Modell-Definition für API-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.descriptionstr - Beschreibt die Arten von Behauptungen, die wir extrahieren möchten.max_gleaningsint - Die maximale Anzahl der zu verwendenden Gleaning-Zyklen.
community_reports
Felder
model_idstr - Name der zu verwendenden Modell-Definition für API-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.max_lengthint - Die maximale Anzahl von Ausgabetokens pro Bericht.max_input_lengthint - Die maximale Anzahl von Eingabetokens, die beim Erstellen von Berichten verwendet werden sollen.
embed_graph
Wir verwenden node2vec zur Einbettung des Graphen. Dies wird hauptsächlich zur Visualisierung verwendet, daher ist es standardmäßig nicht aktiviert.
Felder
enabledbool - Ob Graphen-Embeddings aktiviert werden sollen.dimensionsint - Anzahl der zu erzeugenden Vektor-Dimensionen.num_walksint - Die Anzahl der Spaziergänge von node2vec.walk_lengthint - Die Länge des Spaziergangs von node2vec.window_sizeint - Die Fenstergröße von node2vec.iterationsint - Die Anzahl der Iterationen von node2vec.random_seedint - Der Zufalls-Seed von node2vec.strategydict - Überschreibt die Strategie für Graphen-Embeddings vollständig.
umap
Gibt an, ob wir eine UMAP-Dimensionsreduktion durchführen sollen. Dies wird verwendet, um jedem Graphenknoten eine x/y-Koordinate für die Visualisierung bereitzustellen. Wenn dies nicht aktiviert ist, erhalten Knoten eine 0/0 x/y-Koordinate. Wenn dies aktiviert ist, müssen Sie auch das Graphen-Embedding aktivieren.
Felder
enabledbool - Ob UMAP-Layouts aktiviert werden sollen.
snapshots
Felder
embeddingsbool - Embeddings-Snapshots nach Parquet exportieren.graphmlbool - Graph-Snapshots nach GraphML exportieren.
Abfrage
local_search
Felder
chat_model_idstr - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.embedding_model_idstr - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.text_unit_propfloat - Der Anteil der Texteinheiten.community_propfloat - Der Anteil der Gemeinschaften.conversation_history_max_turnsint - Die maximale Anzahl von Umdrehungen im Konversationsverlauf.top_k_entitiesint - Die Top-k zugeordneten Entitäten.top_k_relationshipsint - Die Top-k zugeordneten Beziehungen.max_context_tokensint - Die maximale Anzahl von Tokens, die zum Erstellen des Anfragekontexts verwendet werden sollen.
global_search
Felder
chat_model_idstr - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.map_promptstr - Die zu verwendende Mapper-Prompt-Datei.reduce_promptstr - Die zu verwendende Reducer-Prompt-Datei.knowledge_promptstr - Die zu verwendende Knowledge-Prompt-Datei.map_promptstr | None - Der zu verwendende Mapper-Prompt für die globale Suche.reduce_promptstr | None - Der zu verwendende Reducer für die globale Suche.knowledge_promptstr | None - Der allgemeine Prompt für die globale Suche.max_context_tokensint - Die maximale Kontextgröße, die in Tokens erstellt werden soll.data_max_tokensint - Die maximale Anzahl von Tokens, die zum Erstellen der endgültigen Antwort aus den reduzierten Antworten verwendet werden sollen.map_max_lengthint - Die maximale Länge, die für Mapper-Antworten in Wörtern angefordert werden soll.reduce_max_lengthint - Die maximale Länge, die für Reducer-Antworten in Wörtern angefordert werden soll.dynamic_search_thresholdint - Schwellenwert für die Bewertung zur Einbeziehung eines Community-Berichts.dynamic_search_keep_parentbool - Übergeordnetes Community beibehalten, wenn eine der Kind-Gemeinschaften relevant ist.dynamic_search_num_repeatsint - Anzahl der Bewertungen desselben Community-Berichts.dynamic_search_use_summarybool - Community-Zusammenfassung anstelle von full_context verwenden.dynamic_search_max_levelint - Die maximale Ebene der Community-Hierarchie, die berücksichtigt werden soll, wenn keine der verarbeiteten Gemeinschaften relevant ist.
drift_search
Felder
chat_model_idstr - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.embedding_model_idstr - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.reduce_promptstr - Die zu verwendende Reducer-Prompt-Datei.data_max_tokensint - Die maximalen Tokens des Daten-LLM.reduce_max_tokensint - Die maximalen Tokens für die Reduce-Phase. Nur verwenden, wenn kein O-Serien-Modell.reduce_max_completion_tokensint - Die maximalen Tokens für die Reduce-Phase. Nur für O-Serien-Modelle verwenden.concurrencyint - Die Anzahl der gleichzeitigen Anfragen.drift_k_followupsint - Die Anzahl der abzurufenden globalen Top-Ergebnisse.primer_foldsint - Die Anzahl der Folds für das Search Priming.primer_llm_max_tokensint - Die maximale Anzahl von Tokens für das LLM im Primer.n_depthint - Die Anzahl der zu durchlaufenden Drift-Suchschritte.local_search_text_unit_propfloat - Der Anteil der Suche, der für Texteinheiten bestimmt ist.local_search_community_propfloat - Der Anteil der Suche, der für Community-Eigenschaften bestimmt ist.local_search_top_k_mapped_entitiesint - Die Anzahl der Top-K-Entitäten, die während der lokalen Suche zugeordnet werden sollen.local_search_top_k_relationshipsint - Die Anzahl der Top-K-Beziehungen, die während der lokalen Suche zugeordnet werden sollen.local_search_max_data_tokensint - Die maximale Kontextgröße in Tokens für die lokale Suche.local_search_temperaturefloat - Die Temperatur, die für die Token-Generierung bei der lokalen Suche verwendet werden soll.local_search_top_pfloat - Der Top-p-Wert, der für die Token-Generierung bei der lokalen Suche verwendet werden soll.local_search_nint - Die Anzahl der Completions, die bei der lokalen Suche generiert werden sollen.local_search_llm_max_gen_tokensint - Die maximale Anzahl generierter Tokens für das LLM bei der lokalen Suche. Nur verwenden, wenn kein O-Serien-Modell.local_search_llm_max_gen_completion_tokensint - Die maximale Anzahl generierter Tokens für das LLM bei der lokalen Suche. Nur für O-Serien-Modelle verwenden.
basic_search
Felder
chat_model_idstr - Name der zu verwendenden Modell-Definition für Chat-Completion-Aufrufe.embedding_model_idstr - Name der zu verwendenden Modell-Definition für Embedding-Aufrufe.promptstr - Die zu verwendende Prompt-Datei.kint | None - Anzahl der aus dem Vektorspeicher abzurufenden Texteinheiten für den Kontextaufbau.