OllamaLLM¶
运行 Async API 客户端的 Ollama LLM 实现。
属性¶
-
model: 用于 LLM 的模型名称,例如 "notus"。
-
host: Ollama 服务器主机。
-
timeout: LLM 的超时时间。默认为
120
。 -
follow_redirects: 是否跟随重定向。默认为
True
。 -
structured_output: 包含结构化输出配置的字典,或者如果需要更细粒度的控制,则为
OutlinesStructuredOutput
的实例。默认为 None。 -
tokenizer_id: tokenizer Hugging Face Hub 仓库 ID 或包含 tokenizer 配置文件目录的路径。如果未提供,将使用与
model
关联的 ID。默认为None
。 -
use_magpie_template: 用于启用/禁用应用 Magpie 预查询模板的标志。默认为
False
。 -
magpie_pre_query_template: 要应用于提示或发送到 LLM 以生成指令或后续用户消息的预查询模板。有效值为 "llama3"、"qwen2" 或提供的另一个预查询模板。默认为
None
。 -
_aclient: 用于 Ollama API 的
AsyncClient
。它旨在内部使用。在load
方法中设置。
运行时参数¶
-
host: Ollama 服务器主机。
-
timeout: Ollama API 的客户端超时时间。默认为
120
。