Ollama 应用实践
- Ollama 应用实践:如何选择合适的本地大模型?
- Ollama 应用实践:文本生成(Chat Completion API)
- Ollama 应用实践:多轮对话(Chat Completion API)
- Ollama 应用实践:提示工程(Prompts)
- Ollama 应用实践:函数调用(Function Calling)
- Ollama 应用实践:文本嵌入(Embeddings)
- Ollama 应用实践:多模态模型(Multimodal)
- Ollama 应用实践:模型微调(Fine-tuning)
- Ollama 应用实践:编码助手(Coding Copilot)
- Ollama 应用实践:信息提取(Information Extraction)
- Ollama 应用实践:文本转语音(ChatTTS)
- Ollama 应用实践:文本转语音(Edge-TTS)
- Ollama 应用实践:语音助手(Voice Assistant)
- Ollama 应用实践:Ollama 接入对话客户端 Dify
- Ollama 应用实践:Ollama 接入对话客户端 ChatNextWeb
- Ollama 应用实践:Ollama 接入对话客户端 ChatALL
- Ollama 应用实践:Ollama 接入对话客户端 ChatBox
- Ollama 应用实践:生成式人工智能堆栈(GenAI Stack)
- Ollama 应用实践:Ollama && AnythingLLM 搭建本地AI知识库
- Ollama 应用实践:Ollama && FastGPT 搭建本地AI知识库
Q:怎样在 LangChain 和 LlamaIndex 中使用 Yi Model API?
A:
对于 LangChain,你需要从 langchain_openai 库导入 ChatOpenAI,并设置相应的 api_base、api_key 和 model 参数。
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_base=”https://api.lingyiwanwu.com/v1", openai_api_key=”your-01ai-key”, model=”yi-34b-chat-0205”)
print(llm.invoke(“hi, who are you?”))
对于 LlamaIndex,你需要从 llama_index.llms.openai_like 和 llama_index.core.llms 导入 OpenAILike 和ChatMessage,并设置相应的 api_base、api_key 和 model 参数。
from llama_index.llms.openai_like import OpenAILike
from llama_index.core.llms import ChatMessage
model = OpenAILike(api_base=”https://api.lingyiwanwu.com/v1", api_key=”your-01ai-key”, model=”yi-34b-chat-0205”, is_chat_model=True)
response = model.chat(messages=[ChatMessage(content=”Hi, Who are you?”)])
print(response)
这样,你就成功地将 LangChain 和 LlamaIndex 与 Yi Model API 进行集成,可以通过这两个工具库来调用 Yi Model API,从而进行各种自然语言处理任务。
作者:Jeebiz 创建时间:2024-04-24 09:08
最后编辑:Jeebiz 更新时间:2024-11-21 01:00
最后编辑:Jeebiz 更新时间:2024-11-21 01:00