LLMs 库¶
-
AnthropicLLM
运行 Async API 客户端的 Anthropic LLM 实现。
-
OpenAILLM
运行 async API 客户端的 OpenAI LLM 实现。
-
AnyscaleLLM
运行 OpenAI 的 async API 客户端的 Anyscale LLM 实现。
-
AzureOpenAILLM
运行 async API 客户端的 Azure OpenAI LLM 实现。
-
TogetherLLM
运行 OpenAI 的 async API 客户端的 TogetherLLM LLM 实现。
-
ClientvLLM
用于
vLLM
服务器的客户端,实现了 OpenAI API 规范。 -
CohereLLM
Cohere API 实现,使用异步客户端进行并发文本生成。
-
GroqLLM
Groq API 实现,使用异步客户端进行并发文本生成。
-
InferenceEndpointsLLM
运行 async API 客户端的 InferenceEndpoints LLM 实现。
-
LiteLLM
运行 async API 客户端的 LiteLLM 实现。
-
MistralLLM
运行 async API 客户端的 Mistral LLM 实现。
-
MixtureOfAgentsLLM
Mixture-of-Agents
实现。 -
OllamaLLM
运行 Async API 客户端的 Ollama LLM 实现。
-
VertexAILLM
运行 Gemini 的 async API 客户端的 VertexAI LLM 实现。
-
TransformersLLM
Hugging Face
transformers
库 LLM 实现,使用文本生成 -
LlamaCppLLM
llama.cpp LLM 实现,运行 C++ 代码的 Python 绑定。
-
MlxLLM
Apple MLX LLM 实现。
-
vLLM
vLLM
库 LLM 实现。