方式一:Ollama 运行起来后,使用 langchain 加载

from langchain.llms import Ollama
ollama = Ollama(base_url='http://localhost:11434',
model="llama2")
print(ollama("why is the sky blue"))

方式二:使用 langchain_community

1、下载 Ollama : https://ollama.com/download
2、运行命令,拉取模型

ollama pull llama2

3、运行代码

from langchain_community.llms import Ollama
llm = Ollama(model="llama2")

llm.invoke("how can langsmith help with testing?")

参考:https://python.langchain.com/docs/get_started/quickstart

参考文章:

5分钟本地部署各种大模型,还可以和langchain一起玩 (Docker)
https://mp.weixin.qq.com/s/oyOK162eFHlpxdqQCT86GQ
OLLama 如何通过已有文档建立知识库进行问答?OLLama + LangChain给你助力。
https://mp.weixin.qq.com/s/k-OF_L-x85B6H73xMoxpcg

作者:Jeebiz  创建时间:2024-06-12 00:16
最后编辑:Jeebiz  更新时间:2024-07-21 23:12