promptflow.rag Modul#
- promptflow.rag.build_index(*, name: str, vector_store: str = 'azure_ai_search', input_source: Union[AzureAISearchSource, LocalSource], index_config: Optional[AzureAISearchConfig] = None, embeddings_model_config: EmbeddingsModelConfig, data_source_url: Optional[str] = None, tokens_per_chunk: int = 1024, token_overlap_across_chunks: int = 0, input_glob: str = '**/*', max_sample_files: Optional[int] = None, chunk_prepend_summary: Optional[bool] = None, document_path_replacement_regex: Optional[Dict[str, str]] = None, embeddings_cache_path: Optional[str] = None) str#
Generiert lokal Embeddings und speichert Index-Referenz im Speicher
- Parameter:
name (str) – Der Name des Ausgabe-Index.
vector_store (str) – Der zu indexierende Vektorspeicher.
input_source (Union[AzureAISearchSource, LocalSource]) – Die Konfiguration für die Eingabedatenquelle.
index_config (AzureAISearchConfig) – Die Konfiguration für die Ausgabe von Azure Cognitive Search.
embeddings_model_config (EmbeddingsModelConfig) – Die Konfiguration für das Embedding-Modell.
data_source_url (Optional[str]) – Die URL der Datenquelle.
tokens_per_chunk (int) – Die Größe jedes Chunks.
token_overlap_across_chunks (int) – Die Überlappung zwischen Chunks.
input_glob (str) – Das Eingabe-Glob-Muster.
max_sample_files (Optional[int]) – Die maximale Anzahl von Beispieldateien.
chunk_prepend_summary (Optional[bool]) – Ob eine Zusammenfassung jedem Chunk vorangestellt werden soll.
document_path_replacement_regex (Optional[Dict[str, str]]) – Das Regex für den Ersatz des Dokumentenpfads.
embeddings_cache_path (Optional[str]) – Der Pfad zum Embeddings-Cache.
- Gibt zurück:
Lokaler Pfad zum erstellten Index.
- Rückgabetyp:
str
- promptflow.rag.get_langchain_retriever_from_index(path: str)#