promptflow.integrations.langchain Modul#
- class promptflow.integrations.langchain.LangChainEventType(value)#
Basiert auf:
EnumEine Aufzählung.
- AGENT = ('AGENT', 3)#
- CHAIN = ('CHAIN', 1)#
- LLM = ('LLM', 0)#
- TOOL = ('TOOL', 2)#
- class promptflow.integrations.langchain.PromptFlowCallbackHandler#
Basiert auf:
BaseCallbackHandlerPromptFlowCallbackHandlerimplementiert die Schnittstelle langchain.callbacks.base.BaseCallbackHandler, die eine Methode für jedes Ereignis hat, zu dem abonniert werden kann. Die entsprechende Methode wird für den Handler aufgerufen, wenn das Ereignis ausgelöst wird.- property always_verbose: bool#
Ob immer ausführlich sein soll.
- on_agent_action(action: AgentAction, **kwargs: Any) None#
Auf Agentenaktion ausführen.
- Parameter:
action (AgentAction) – Die Aktion des Agenten.
- on_agent_finish(finish: AgentFinish, **kwargs: Any) None#
Auf Agentenende ausführen.
- Parameter:
finish (AgentFinish) – Das Ende des Agenten.
- on_chain_end(outputs: Dict[str, Any], **kwargs: Any) None#
Ausführen, wenn die Kette mit der Ausführung endet.
- Parameter:
outputs (Dict[str, Any]) – Die Ausgaben der Kette.
- on_chain_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#
Ausführen, wenn bei der Kette Fehler auftreten.
- Parameter:
error (Union[Exception, KeyboardInterrupt]) – Der Fehler der Kette.
- on_chain_start(serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs: Any) None#
Ausführen, wenn die Kette mit der Ausführung beginnt.
- Parameter:
serialized (Dict[str, Any]) – Das serialisierte Kettenobjekt.
inputs (Dict[str, Any]) – Die Eingaben, die zur Ausführung der Kette verwendet werden.
- on_llm_end(response: LLMResult, **kwargs: Any) None#
Ausführen, wenn LLM mit der Ausführung endet.
- Parameter:
response (LLMResult) – Die Antwort von LLM.
- on_llm_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#
Ausführen, wenn bei LLM Fehler auftreten.
- Parameter:
error (Union[Exception, KeyboardInterrupt]) – Der Fehler von LLM.
- on_llm_new_token(token: str, **kwargs: Any) None#
Auf neues LLM-Token ausführen. Nur verfügbar, wenn Streaming aktiviert ist.
- Parameter:
token (str) – Das neue Token.
- on_llm_start(serialized: Dict[str, Any], prompts: List[str], **kwargs: Any) None#
Ausführen, wenn LLM mit der Ausführung beginnt.
- Parameter:
serialized (Dict[str, Any]) – Das serialisierte LLM-Objekt.
prompts (List[str]) – Die Prompts, die zur Ausführung von LLM verwendet werden.
- on_text(text: str, **kwargs: Any) None#
Auf beliebigen Text ausführen.
- Parameter:
text (str) – Der Text.
- on_tool_end(output: str, **kwargs: Any) None#
Ausführen, wenn das Werkzeug mit der Ausführung endet.
- Parameter:
output (str) – Die Ausgabe des Werkzeugs.
- on_tool_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#
Ausführen, wenn bei dem Werkzeug Fehler auftreten.
- Parameter:
error (Union[Exception, KeyboardInterrupt]) – Der Fehler des Werkzeugs.
- on_tool_start(serialized: Dict[str, Any], input_str: str, **kwargs: Any) None#
Ausführen, wenn das Werkzeug mit der Ausführung beginnt.
- Parameter:
serialized (Dict[str, Any]) – Das serialisierte Werkzeugobjekt.
input_str (str) – Der Eingabestring, der zur Ausführung des Werkzeugs verwendet wird.