promptflow.integrations.langchain Modul#

class promptflow.integrations.langchain.LangChainEventType(value)#

Basiert auf: Enum

Eine Aufzählung.

AGENT = ('AGENT', 3)#
CHAIN = ('CHAIN', 1)#
LLM = ('LLM', 0)#
TOOL = ('TOOL', 2)#
class promptflow.integrations.langchain.PromptFlowCallbackHandler#

Basiert auf: BaseCallbackHandler

PromptFlowCallbackHandler implementiert die Schnittstelle langchain.callbacks.base.BaseCallbackHandler, die eine Methode für jedes Ereignis hat, zu dem abonniert werden kann. Die entsprechende Methode wird für den Handler aufgerufen, wenn das Ereignis ausgelöst wird.

property always_verbose: bool#

Ob immer ausführlich sein soll.

on_agent_action(action: AgentAction, **kwargs: Any) None#

Auf Agentenaktion ausführen.

Parameter:

action (AgentAction) – Die Aktion des Agenten.

on_agent_finish(finish: AgentFinish, **kwargs: Any) None#

Auf Agentenende ausführen.

Parameter:

finish (AgentFinish) – Das Ende des Agenten.

on_chain_end(outputs: Dict[str, Any], **kwargs: Any) None#

Ausführen, wenn die Kette mit der Ausführung endet.

Parameter:

outputs (Dict[str, Any]) – Die Ausgaben der Kette.

on_chain_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#

Ausführen, wenn bei der Kette Fehler auftreten.

Parameter:

error (Union[Exception, KeyboardInterrupt]) – Der Fehler der Kette.

on_chain_start(serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs: Any) None#

Ausführen, wenn die Kette mit der Ausführung beginnt.

Parameter:
  • serialized (Dict[str, Any]) – Das serialisierte Kettenobjekt.

  • inputs (Dict[str, Any]) – Die Eingaben, die zur Ausführung der Kette verwendet werden.

on_llm_end(response: LLMResult, **kwargs: Any) None#

Ausführen, wenn LLM mit der Ausführung endet.

Parameter:

response (LLMResult) – Die Antwort von LLM.

on_llm_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#

Ausführen, wenn bei LLM Fehler auftreten.

Parameter:

error (Union[Exception, KeyboardInterrupt]) – Der Fehler von LLM.

on_llm_new_token(token: str, **kwargs: Any) None#

Auf neues LLM-Token ausführen. Nur verfügbar, wenn Streaming aktiviert ist.

Parameter:

token (str) – Das neue Token.

on_llm_start(serialized: Dict[str, Any], prompts: List[str], **kwargs: Any) None#

Ausführen, wenn LLM mit der Ausführung beginnt.

Parameter:
  • serialized (Dict[str, Any]) – Das serialisierte LLM-Objekt.

  • prompts (List[str]) – Die Prompts, die zur Ausführung von LLM verwendet werden.

on_text(text: str, **kwargs: Any) None#

Auf beliebigen Text ausführen.

Parameter:

text (str) – Der Text.

on_tool_end(output: str, **kwargs: Any) None#

Ausführen, wenn das Werkzeug mit der Ausführung endet.

Parameter:

output (str) – Die Ausgabe des Werkzeugs.

on_tool_error(error: Union[Exception, KeyboardInterrupt], **kwargs: Any) None#

Ausführen, wenn bei dem Werkzeug Fehler auftreten.

Parameter:

error (Union[Exception, KeyboardInterrupt]) – Der Fehler des Werkzeugs.

on_tool_start(serialized: Dict[str, Any], input_str: str, **kwargs: Any) None#

Ausführen, wenn das Werkzeug mit der Ausführung beginnt.

Parameter:
  • serialized (Dict[str, Any]) – Das serialisierte Werkzeugobjekt.

  • input_str (str) – Der Eingabestring, der zur Ausführung des Werkzeugs verwendet wird.