Ollama 应用实践:生成式人工智能堆栈(GenAI Stack) 的 GenAI Stack Neo4j、LangChain、Ollama

Docker与合作伙伴Neo4j、LangChain和Ollama共同发布了一款新的生成式人工智能堆栈(GenAI Stack),旨在帮助开发人员在几分钟内运行生成式人工智能应用程序。GenAI Stack无需搜索、拼凑和配置来自不同来源的技术,通过Ollama的大型语言模型(LLM)、Neo4j的矢量和图形数据库以及LangChain框架进行了预配置、可编程和确保安全。Docker还宣布了其首款人工智能产品Docker AI。

与 AI 的深度集合

如今,在几乎所有用于训练和推理的生成式 AI 应用当中,Docker 容器已经成为最主流的部署方法。这次大会,Docker 推出了新的 GenAI Stack,可以在几分钟内帮助开发人员启动 GenAI 应用程序。

“开发人员对 GenAI 的可能性感到兴奋,但技术堆栈的变化速度、供应商数量和巨大差异使其难以了解应该如何下手。”Docker 公司 CEO Scott Johnston 表示,虽然目前用 Docker 容器来协助共享和部署 AI 模型的作法已经非常普遍,但仍需要更多探索来进一步降低生成式 AI 应用的开发门槛。

现在,Docker 发布的 GenAI Stack 能够显著简化整个流程,将 Docker 与 Neo4j 图数据库、LangChain 模型链接技术和用于运行大语言模型(LLM)的 Ollama 相集成。具体组件包括:

预配置的开源 LLM(例如 Llama 2、Code Llama、Mistral),或私有模型(例如 OpenAI 的 GPT-3.5 和 GPT-4);
Ollama 帮助开发人员在本地启动并运行开源 LLM;
Neo4j 作为图形和原生向量搜索的默认数据库,可以发现数据中显式和隐式的模式和关系,使 AI/ML 模型更快、更准确,并作为这些模型的长期记忆;
Neo4j 知识图谱作为 LLM 的知识库,以获得更准确的 GenAI 预测和结果;
LangChain 在 LLM、应用程序和带有向量索引的数据库之间进行编排,并作为开发由 LLM 提供支持的上下文感知推理应用程序的框架;
还有一系列支持工具、代码模板、操作方法和 GenAI 最佳实践。
作者:Jeebiz  创建时间:2024-07-21 23:20
最后编辑:Jeebiz  更新时间:2024-08-29 20:41